5천만개정도의 데이타를 처리하는것이 그누보드로 가능할까요? 정보
기타 5천만개정도의 데이타를 처리하는것이 그누보드로 가능할까요?본문
5천만명의 사람이있다고 가정하고 이사람들의 연락처와 나이주소등등 을 입력받습니다.
사이트에서 이사람들의 정보를 검색하고 해당내용에따라 리스트를 보여주려고합니다.
예를들면 나이순으로 높은순차정렬해서 제일나이많은순으로 한다던가 하는식으로말이죠
위사이트를 제작하려면 일반 그누보드나 제로보드로 제작이 가능할까요? 일반호스팅을 받는다고
가정하고말입니다.서버사양은 늘려야한다면 늘릴수있습니다.
안되고 디비서버를 따로구축한다거나 튜닝을해야한다면 비용발생이 얼마정도나 될까요?
디비쪽을 전혀 모르니 감이안오네요 고수님들 많은 가르침 부탁드립니다.
추천
0
0
댓글 6개

질문이 이해가 잘 가지 않는군요 ..
제목에는 5천만개 .. 내용에는 5천개 .. 정확히 몇개 입니까? 5천개 인가요 ?
주소록이로 보았을때는 5천만개는 우리나라 전국민 데이터 량입니다.
제가 볼땐 5천만명이 아니라 5천명 아닌가요 ?
5천명이라 하면 5천건의 데이터인데 5천건의 데이터는 디비에 부하의 부자에도 못낍니다.
서버도 일반 웹호스팅으로 하셔도 되지만 웹호스팅이라는건 말 그대로 트래픽이 영향이 있는것이지
5천건이면 디비에 뭘 넣을지도 모르겠지만 개인적인 정보 몇개만 넣어서 5천건 집어 넣는다면 몇메가 안찰듯 보입니다.
아울러 이건 그누로 하던 뭐로 하던 상관 없어 보이구요 어자피 셀렉트를 해서 뿌려주는 페이지와 검색 부분만
따로 만들면 되겠죠
5천건은 솔직히 디비튜닝이고 서버 튜닝이고 뭐고 할게 없는 전혀 없을 뿐더러 걱정조차 하지 않아도 되는 데이터 양입니다.
뭘걱정하고 뭐할 데이터 양이 전혀 아니라는 이야기이죠
500만건 5000만건이면 모르겠지만 ..
제목에는 5천만개 .. 내용에는 5천개 .. 정확히 몇개 입니까? 5천개 인가요 ?
주소록이로 보았을때는 5천만개는 우리나라 전국민 데이터 량입니다.
제가 볼땐 5천만명이 아니라 5천명 아닌가요 ?
5천명이라 하면 5천건의 데이터인데 5천건의 데이터는 디비에 부하의 부자에도 못낍니다.
서버도 일반 웹호스팅으로 하셔도 되지만 웹호스팅이라는건 말 그대로 트래픽이 영향이 있는것이지
5천건이면 디비에 뭘 넣을지도 모르겠지만 개인적인 정보 몇개만 넣어서 5천건 집어 넣는다면 몇메가 안찰듯 보입니다.
아울러 이건 그누로 하던 뭐로 하던 상관 없어 보이구요 어자피 셀렉트를 해서 뿌려주는 페이지와 검색 부분만
따로 만들면 되겠죠
5천건은 솔직히 디비튜닝이고 서버 튜닝이고 뭐고 할게 없는 전혀 없을 뿐더러 걱정조차 하지 않아도 되는 데이터 양입니다.
뭘걱정하고 뭐할 데이터 양이 전혀 아니라는 이야기이죠
500만건 5000만건이면 모르겠지만 ..
죄송합니다 5천만명으로 수정하였습니다.
전국민을 다 디비에 넣는다는 가정을 한다면~
전국민을 다 디비에 넣는다는 가정을 한다면~
http://phpschool.com/gnuboard4/bbs/board.php?bo_table=qna_db&wr_id=186840&sca=&sfl=wr_subject%7C%7Cwr_content&stx=%B9%E9%BE%F7+%BA%B9%B1%B8&sop=and
. . .
1억건 넣어 보고 속도 테스트 해봤는데.. 그렇게 느리지 않았습니다.
적절하게 인덱스 거니깐 일반 적인 속도로 나오던데요..
. . .
. . .
1억건 넣어 보고 속도 테스트 해봤는데.. 그렇게 느리지 않았습니다.
적절하게 인덱스 거니깐 일반 적인 속도로 나오던데요..
. . .
적절한 인덱스라는게 어떤말인지는 모르겠지만 튜닝없이 불가능하다는 말은 아닌거같네요 답변 감사합니다 ^^
테스트해봐야겠네요
테스트해봐야겠네요

위의 링크를 보고 대충 생각해보았습니다. 덕분에 링크에 댓글을 달아보았는데, 여기도... 다 옳지는 않으니, 그냥 이론상 그렇다는 것정도만 생각해보면 좋을 것 같아용...
================================================================
한 레코드(나이,이름,성별,주소,기타등등)당 512byte 정도를 차지하도록 하면,
512 * 100,000,000 rows = 5.12 * 10^10 byte = 대략 50기가 로군요...
테이블 하나가 50기가... 메모리 위에 다 올리지도 못하겠는걸요? 오라클에서 말하는 그리드...
최근 기술인 클라우드를 써야할까요? 인덱스만해도 레코드당 3바이트라고 해도 3억바이트는 300메가...
무엇을 검색하느냐에 따라, 그리고 조인이 되는가에 따라 메모리 양이나, 디스크 IO의 성능도 (SAS Raid 0+1) 중요하겠군요...
레이드를 하게 되면 한 파일이 여러디스크게 골고루 분산되어 들어가게 되므로 I/O에서 상당한 이익을 보지요.
그 한 파일이 메모리에 올라가게 되면 끝장나구요. 클라우드는 여러대의 컴퓨터가 한 메모리의 내용의 일부를 불러와서 각자의 CPU가 계산한 값을 랜선을 타고 여러대의 컴이 결과값을 나눠갖는 원리도 포함되어있다고 어디서 본 것 같네요...
레이드는 필수요, 서버를 그리드나 클라우드, 그리고 Multi CPU 16코어 서버정도 쓰면 원활할른지도 모르겠다는 생각이 듭니당...
================================================================
한 레코드(나이,이름,성별,주소,기타등등)당 512byte 정도를 차지하도록 하면,
512 * 100,000,000 rows = 5.12 * 10^10 byte = 대략 50기가 로군요...
테이블 하나가 50기가... 메모리 위에 다 올리지도 못하겠는걸요? 오라클에서 말하는 그리드...
최근 기술인 클라우드를 써야할까요? 인덱스만해도 레코드당 3바이트라고 해도 3억바이트는 300메가...
무엇을 검색하느냐에 따라, 그리고 조인이 되는가에 따라 메모리 양이나, 디스크 IO의 성능도 (SAS Raid 0+1) 중요하겠군요...
레이드를 하게 되면 한 파일이 여러디스크게 골고루 분산되어 들어가게 되므로 I/O에서 상당한 이익을 보지요.
그 한 파일이 메모리에 올라가게 되면 끝장나구요. 클라우드는 여러대의 컴퓨터가 한 메모리의 내용의 일부를 불러와서 각자의 CPU가 계산한 값을 랜선을 타고 여러대의 컴이 결과값을 나눠갖는 원리도 포함되어있다고 어디서 본 것 같네요...
레이드는 필수요, 서버를 그리드나 클라우드, 그리고 Multi CPU 16코어 서버정도 쓰면 원활할른지도 모르겠다는 생각이 듭니당...

결국 페이스북이나 아마존 같은 경우에는 NoSQL을 쓰지요... 몽고디비나 카산드라같은...
트위터도 갈수록 커져가는 트래픽과 용량을 위해 서버를 계속 증가시키고, 기존 클라우드가 잘 되어있으면 수년후 대형 업그레이드를 할 때, 한대를 빼고 고성능, 고용량으로 바꾸고, 99대를 그렇게 또 바꿔나가면 자동으로 서서히 서로 싱크가 되어나가는 것으로 압니다... 마치 레이드 5가 Regenerate 되듯이...
나머지 더욱 정확한 정보는 클라우드 전문가 분께 넘겨봅니당... orz
트위터도 갈수록 커져가는 트래픽과 용량을 위해 서버를 계속 증가시키고, 기존 클라우드가 잘 되어있으면 수년후 대형 업그레이드를 할 때, 한대를 빼고 고성능, 고용량으로 바꾸고, 99대를 그렇게 또 바꿔나가면 자동으로 서서히 서로 싱크가 되어나가는 것으로 압니다... 마치 레이드 5가 Regenerate 되듯이...
나머지 더욱 정확한 정보는 클라우드 전문가 분께 넘겨봅니당... orz