'nfs'에 해당되는 글 3건

  1. 2018.02.22 :: Kernel Dump Analysis #16
  2. 2011.09.01 :: IBrix 6.0 preview
  3. 2008.10.22 :: nis + autofs + nfs ( on blade ) (2)
Skills/mY Technutz 2018. 2. 22. 13:27

와.. 대박... 일이 엄청나게 들어와..

공격적으로 오라클 리눅스를 장사하면 내가 쓰일만한 일이 있긴 하구나 하면서도

일이 이렇게 많아지면 개빡쳐서 아무것도 하기 싫어지는 현자타임같은게 온다는..

무튼, 요즘 핫하게 밀려들어오는 업무량 덕에 코어분석 일도 숭풍숭풍 막 쳐 들어오는..

이번에는 레드햇 커널 즉, Oracle Linux 에서 Cmompatibility 를 위해 제공하는

Redhat Compatible Kernel ( RHCK ) 와 관련된 커널 덤프 분석을 해주시겠다.

Technical Preview 이기 때문에 해당 부분에 대한 코드는

ASSERTCMP(op->state, ==, FSCACHE_OP_ST_DEAD);

로 수정되는 식으로 상황을 정리하는 코드가 추가된 것 같다.
( 수정된 코드 다운받거나 찾기 귀찮다! 바쁘다. 점심안에 써야한다 글을. )

물론 픽스는 해당 fscache 모듈을 사용하지 않도록 하거나,

( cachefilesd 데몬을 Disable 한다. )

ELSA-2017-0307 또는 ELSA-2017-0817 ( RHSA-2017-0817 대응) 에서 권고하는

kernel-2.6.32-696.el6 이후의 최신 버젼으로 업그레이드 하거나

6.8 GA kernel-2.6.32-642.el6 이하 커널로 다운그레이드 하면 된다고

Redhat 에서 이야기 하는 것 같다.

사실 개인생각으로는 커널 업그레이드를 해봤자 동일할것 같긴 해서

구지 필요하지 않다면 Cachefilesd 를 Off 하는게 더 좋을것 같다고 생각된다.

mount option 에서 fsc 가 생겼는데 이게 없으면 자동으로 fscache 가 활성화 된다고 하는 것 같다.

레드햇 이슈라 명확하게 솔루션 코드가 확인되지 않는 상태라 잘 모르겠으나

분석 방법이랑 워크어라운드 기입되 있음 이미 난 충분히 세계를 위해 기여한거시다...

'Skills > mY Technutz' 카테고리의 다른 글

Kernel Dump Analysis #17  (0) 2019.04.04
libfc: Update rport reference counting bug - 1368175  (0) 2018.03.29
Kernel Dump Analysis #16  (0) 2018.02.22
Kernel Dump Analysis #15  (0) 2018.02.19
Kernel Dump Analysis #14  (0) 2018.02.13
Kernel Crash dump Analysis - #13  (0) 2017.12.20
posted by mirr

댓글을 달아 주세요

Skills/IBRIX - Storage 2011. 9. 1. 02:40
단순 Preview 다.

아직 정식 릴리즈는 안된것 같고, RC 정도만 나온것 같은데,

일단 내가 HP 에 있으면서 테스트 할 기회가 너무 넘쳐나서,

간략한 소개라기보단, 간략한 이슈화를 시키고자 글을 쓴다.

일단 6.0 사실 5.6 버젼으로 올라가면서 RHEL 5.5 버젼으로의 업그레이드는

이녀석을 위한 교두보였을지도 모르겠다.

6.0! 완벽하게 5.5 이후의 피쳐들을 잘 쓰고 있다.

특히나, ext3 를 넘어선 ibfs ( IbrixFS ) 의 향상은 뛰어나진것 같다.

물론 성능 자체는 어차피 Appliance 형태인 셈이니, 각 조직들의 성능을 따르는거니까,

둘째치고, Ibrix 커널 자체가 엄청나게 안정화 된것 같다.

Oops 나, Profiling (Oprofile), Debug 모드 등을 여러번 테스트해 보았을때.

뿌려지는 스택의 디테일함이 달라졌다. 이건, 물론 기본적으로 RHEL 이나

리눅스 자체의 지원이 달라진것도 있겠지만, 그것들을 충분히 이용 할 수 있게 만든

IBrix 도 흥미롭다는 사실!

일단 6.0 에서 가장 크게 새로 추가된 피쳐만 살짜쿵 애기해본다.

1. Native Snapshot.

HP 모 부장님은 자꾸 H/W 랑 S/W 랑 구분함과 동시에 외려 그 둘을 자꾸 헛갈리게

얘기하시곤 하는데 (막 H/W 를 S/W 라고하는둥) 그건 단어의 헛갈림이니 접어두고 :P

6.0 에서 추가된 Native Snapshot 이란 말그대로 , Software Snapshot 이며,

IBrix 에서 기존 제공하든 H/W Snapshot 은 Vendor Storage (EMC,HP,Dell)

만 지원했음과 다르게, 디렉토리별로 스냅샷을 제공하는 부분인게다.

물론 Ibrix Engine 과 DB 에서 관리하며, 엄밀히 따지면,

ZFS 나, BTRFS 또는, SnapFS 에서의 그 것들과 같이, 파일시스템자체에

Inode 에대한 Snap (Link) Feature 를 이용하여, Directory 상태 자체를

히든 ( .@InodeNum ) 디렉토리를 생성 후 링크하는 식으로 구현을 한 것이다.

리눅스에선 .@숫자 로 보이니 애매모호하긴 한데,

CIFS 나 NFS 등에서는 파일에 변경이 생길경우 바로 Hidden 파일 보기 옵션조절을 통해

그대로 다 보이게 된다.

물론 복구는 복사식으로 운영해야 한다는 점은 어쩔 수 없다고 본다.

2. SMB 2.0 적용.

사실 SMB 3.0 이 나온 시점에서 뭔 개소리냐 하겠으나,

Cross Protocol 에 대한 안정성을 따지자면 3.0 보단 2.0 에서가 최고인게다.

Likewise 를 이용해야 하는 상황이니까 말이다.

LikeWise 자체도 많은 버그가 수정되었고, 특히 SMB 나 NFS  프로토콜 특유의

접근하려는 파일시스템의 Directory Stat 및 File Stat 을 매번 받아오는 과정을

아예 단축시키거나 대부분 제외시켜 접근 속도를 굉장히 높였다는게 장점!
(물론 나름대로의 백그라운드 메타데이타 이용이 늘었다 ㅡ,.ㅡ:: )

3. Historical Stastics

기존 IBrix 의 단점이. 그래피컬한 데이타를 원하는 시간동안을 뽑아 볼 수 없었다는점!

그래프로 나오는건 오로지 흘러가는 데이타인 실시간 상태정도일 뿐이였던거에 반해,

원하는 시간대로 주기별로 데이타를 그래피컬하게 수집해 주는 기능이 생겼다는점!

물론 실시간은 아니고, 원하는 대로 데이타를 시간대 만큼(Range) 또는,

원하는 상태대로를 뽑아 볼 수 있게 되었다는 점이다.

사실.....SAR 를 뽑아 KSar 로 돌려 보여주는것과 같다.

여기서 주목할 점은 mplot 인가? Python 모듈을 이용한다는 점이다.

내가 사실 이거 설치할때 개삽질좀 했는데, IBRix 정식 이미지에서 제공하는 툴로는

설치할 수가 없다. 왜냐면 IBRIX 가 그냥 깔아주는 OS 에서는 XWindow 시스템은

설치하지도 않을 뿐더러, TKinter 나 WxWidget 등 의 그래피컬 툴은

전혀 설치하지 않으니까!

이건 내가 Python Module 을 직접 인스톨 하는 방향으로 해결했으니,

따로 노하우를 공개할 기회가 있을거고!

뭐 어쨋든 설치하고 나니까 그래피컬하게 뿜어주는데,

이거 명품이더라.

맨날 Dstat 이나, IOzone 등을 따로따로 보면서 막 때려 맞추던 BMT 방식을

현저하게 바꿔줄 기능이거든..

사실 ATop 등을 왜 기본으로 제공하는지 아무도 알려고 안하던데..

이녀석도 차암 BottleNeck 이 어디서부터 나오는지 구분하기 위한 척도로써

사용하기에 참 좋은녀석인데 ( Network 위주 ).. 난 말 안할거임 H 사 있는동안은 ㅎㅎ

암튼 내가 봤을때 이 3가지가 가장 큰 6.0의 메리트이지 않을까 싶다.

블럭 스냅샷따위로 디스크 및 LUN 마다 용량을 줄여먹을 필요도 없고,

아주 손쉽게 그냥 유저레벨 자체에서도 복사를 통한 복구가 가능한점 +.,+

SMB 향상.

그리고 관리자들의 고역중 하나인 그래피컬한 종합적인 자체 성능 분석 도구까지!

차암 좋아졌어...... 다만 유저블한 부분보다 엔지니어링 한 부분을 좀 더 유즈풀하게

바꿔주면 더 좋지 않았을까 하는 점...

내가 관두면 만들어 쓰는데, 직원인데 왜 내가 만들어 써야돼? 롤들이 있는데말야 ㅎㅎ

또한 하드웨어적으로 따지자면 P2000 G3 , IBrix G3 ( Proliant Server G7 )

인데, 이녀석들도 부팅이 좀 길어져서 그렇치 Controller 단의 Flushing 이나,

Writing 등이 매우 안정적이면서 게다가 빠르기까지 하더라.

미들웨어급 이상이라고 봐도 좋을거 같다는 .. ㅎㅎ

이렇게 좋은데 잘좀 하자..BRix 정말 뛰어난 Network File System 이며,

유일하게 정말로, System 이라고 얘기 할 수 있는 제품인데말야....

Cross Platform 이나 Cross Protocol 에 대한 두려움은 필요없거든.

어차피 RFC 따라서 하고있는데말야. 영업이나 기술이나 그냥 안되는건 안되고,

Best Practice 만 줄창 얘기하면 돼. 그리고 그 외의 고객 요구들은

Safty 및 Stupid 또는, Silent 하게 쑈부보면 되는거아닐까 싶다는거지..

이젠 잠.. 참 좋은데 쓰라고해도 쓰질 않고, 아무도 몰라... 이거 차~암 좋은데 ㅡ,.ㅡ
아이실론따위 만드는 E모 사보다 훨씬 훨씬 훨씬 발전적이고, 안정적이며,

싼데! 다가! 제대로 지원해주는데 말야...

PS : 오늘은 여기까지. 술한잔 마시며 오랜만에 쓰는 글들이 차암 즐겁다.

술만마시는게 아니라 예전엔 정말 술(맥주?) 마시며 기술문서 기록하고 이런

열정이 있었는데말야...

앞으로 다시 이런 열정을 되살려보려고 해야겠다.

어차피 이정도에 체력빠져서 죽을거같으면 진작 죽어야 하니까. 생명을 불태우겠어.

"하얗게 불태워버렸어" - 내일의 죠

가 생각나는 오늘!

'Skills > IBRIX - Storage' 카테고리의 다른 글

IBrix 6.0 preview  (0) 2011.09.01
IBrix 5.6 의 특징  (0) 2011.07.26
IBrix 는 대체 어떤 녀석이야?  (2) 2011.07.01
스토리지 - 특히 IBRIX - 용어정리 Part 1.  (2) 2011.06.15
IBRIX - 이젠 스토리지영역이다!  (0) 2011.06.10
posted by mirr

댓글을 달아 주세요

Skills/System 2008. 10. 22. 23:58
뭐 그냥 다들 아는내용인데, 블레이드 위에서 HPC 로 구현한다고 막

과장좀 시켜보고 싶었긴 햇는데 조낸 허접해 흑....

게다가 아직 정리도 안됐어... 뭐 간단해 왜? Redhat 장이잖아....

Redhat 은 간단하다는걸 항상 밀고 싶어... 싶다기보단 밀어야될 거같아... 흑.....

어쨋든, 5.2 내가 지금 구축하는 것들을 토대로 설명하는거야...

blade ... HP 블레이드.. RDP 인가 뭔가.. 뭐 그 콘솔 메니지먼트 이용해서 조낸 그냥

PXE 넷웍 설치처럼 조낸 깔아주면 돼....좀 이상하긴 하더라만 어쨋든 깔려...

뭐...처음에 귀찮아서 블레이드 쉐쉬 스위치랑 놋북 연결시켜서 넷웍설치 했는데

이상하게 다른때와 달리 3대만 동시에해도 조낸 버벅대며 아예 진행이 안되는거야...

막 창피했어.....넷웍설치도 못하다니....암튼 결국 블레이드 메니지먼트 이용해서 했어..(응??)

nis...별거 없어, ypserv 설치하면 되.... 설치하고 NIS에서 인증으로 사용할 DOMAIN 정해서

/etc/hosts 에 호스트와 멤버들 설정해서 기록해 준 뒤에 portmap 실행하고,

setup 명령친뒤, auth어쩌구저쩌구 선택해서 NIS 선택하고 F12 눌러 준 뒤,

도메인 항목에 NIS용 도메인과 ( nisdomain.co.kr )

인증섭이 될 서버명 ( nisserv.nisdomain.co.kr )  을 적어주고 F12 역시 눌러주면 되...

그럼 지혼자 막 바인드 실행시킬꺼야...

뭐...../etc/yp.conf 에서 적당히 domain, server 항목을 직접 넣어줘도 되고,

실제로 ypserv, rpc.yppasswd, ypbind 정도 프로세스 띄우면 될꺼야...

그담에 make -C /var/yp 해주면 계정정보가 적당히 생성되지...

이건 계정을 추가하거나 변경 할때마다 해줘야돼... 크론탭에 적당히 넣든가......

automount 별거 없어.../etc/auto.master 에다가 마운트 될 디렉토리 적절히 적어두고,

그 디렉토리에 적용될 규칙 파일 넣어주면 되... 즉....

/home      auto.home

이런식이야... /home 이라는 디렉토리에 auto.home 규칙파일의 멤버들을

마운트 하도록 감시하겠다는 거지...

auto.home 에는 다음과 같은 식으로 넣어준다.. ( 여기서는 nfs 기준 )

*          -fstype=nfs,hard,intr,rw               /home/&

조기서 & 는 /home 하위의 모든 디렉토리를 뜻하는거다...

뭐.... 저 설정은 클라이언트에서 전부 해줘야 하는거고...

서버에선 /etc/exportfs 에 /home             10.10.10.0/255.255.255.0 (rw,sync,root_squash)

를 적어놓고 물론 portmap 역시 퀴고, nfs 데몬 실행시켜주면 되는거야... 막 다 적어줘야돼??

대충해... 사실 내가 이야기하고싶은건 이런 설정이 아냐...

사실 HP BLADE 8 대랑 Master 2way 서버 한대랑 HPC 구축하는데,

아까 말했듯이 블레이드 설치 시 자꾸 느려지는 병목현상이 발생됐었는데,

설치 된 뒤 Xshell 로 일괄작업 하려고 하는데도 반응이 엄청 느렸거든..

그런데 좀 지나니까 꽨찮아지더라고 그래서 위의 셋팅들을 다했는데,

NIS를 통해 계정 인증까진 잘 됐어....패스워드 입력하니 잘 로그인 되더라고....

그런데 홈디렉을 못불러오잖아......이말은 autofs의 자동마운트문제 혹은

nfs의 마운트 문제인건데........이건아직 해결 못했고, 이슈도 별로 못찾았다...

내일 해결해야한다....일단 nfs 의 튜닝과 autofs의 최신버젼 이 있는지를 찾아보려고

하는데..........누구 아는사람 있음 이글 보고서라도 알려달라.....야한거 알려줄께 캭

--------------------------------------------------------------------------------

NFS 설정할때 아이피 대역적어주는부분을 실수했었다... 아주 캐삽질 하셨쎄요???

야꿀옹 예리해 흑........

posted by mirr

댓글을 달아 주세요

  1.  Addr  Edit/Del  Reply Favicon of http://blog.daum.net/ydhoney BlogIcon ydhoney

    유불이네..

    2008.10.24 07:36