본문 바로가기 메뉴 바로가기

단맛만좋아요

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

단맛만좋아요

검색하기 폼
  • 분류 전체보기 (749)
    • 유전자정보분석 (127)
    • blogging (277)
    • book story (5)
    • Linux (44)
    • computer system (39)
    • java-programming (21)
    • Linux-cluster (14)
    • paper (7)
    • Linux-Application (5)
    • Linux-Packging (0)
    • Bioblogs (62)
    • howto (9)
    • R (5)
    • Biopipe (6)
    • Bioworks (8)
    • Taverna (11)
    • parallel programming (9)
    • 공지사항 (1)
    • Open API (5)
    • 바이오인포매틱스 (20)
    • 개인유전체분석 (34)
    • 빅데이터분석 (21)
    • 컬럼 (14)
    • Clinical Genomics (0)
  • 방명록

예제 (1)
Platformday를 다녀와서는 이러고 있네요 ^^

어제 오늘 Hadoop Cluster를 설정을 하고는 MapReduce 예제들을 돌려보고 있다.(jetty 웹서버가 인터넷에 연결이 되지 않으면 뭔 j2ee 네임스페이스를 찾을 수 없다고 에러를 내는 바람에 이거 찾느라고 어제 하루는 다 보내 버렸다.) 우선 RandomWriter를 통해서 30GB의 입력데이터로 사용할 데이터를 생성했다. 1GB씩 총 30개가 생성되었다. RandomWriter를 통해 생성된 데이터 총 1538초 약 26분정도의 시간이 소요되었다.(테스트는 총 3대의 DataNode에서 수행,,) 이 입력데이터를 가지고 역시 예제 Sort를 수행하였다. 처음에는 Map과 Reduce의 갯수를 지정하지 않고 다음과 같이 기본 명령만을 주고 수행하였다. $ bin/haddop jar had..

blogging 2008. 6. 4. 17:43
이전 1 다음
이전 다음
공지사항
최근에 올라온 글

Blog is powered by Tistory / Designed by Tistory

티스토리툴바