Re: is postgres a good solution for billion record data.. what about mySQL?
В списке pgsql-general по дате отправления:
| От | Scott Marlowe |
|---|---|
| Тема | Re: is postgres a good solution for billion record data.. what about mySQL? |
| Дата | |
| Msg-id | dcc563d10910241334g44af7a9an9d155bee5686e157@mail.gmail.com обсуждение исходный текст |
| Ответ на | Re: is postgres a good solution for billion record data.. what about mySQL? (Tawita Tererei <nevita0305@hotmail.com>) |
| Список | pgsql-general |
On Sat, Oct 24, 2009 at 1:46 PM, Tawita Tererei <nevita0305@hotmail.com> wrote: > In addition to this what about MySQL, how much data (records) that can be > managed with it? That's a question for the mysql mailing lists / forums really. I do know there's some artificial limit in the low billions that you have to create your table with some special string to get it to handle more. As for pgsql, we use one of our smaller db servers to keep track of our stats. It's got a 6 disk RAID-10 array of 2TB SATA 5400 RPM drives (i.e. not that fast really) and we store about 2.5M rows a day in it. So in 365 days we could see 900M rows in it. Each daily partition takes about 30 seconds to seq scan. On our faster servers, we can seq scan all 2.5M rows in about 10 seconds. PostgreSQL can handle it, but don't expect good performance with a single 5400RPM SATA drive or anything.
В списке pgsql-general по дате отправления:
Сайт использует файлы cookie для корректной работы и повышения удобства. Нажимая кнопку «Принять» или продолжая пользоваться сайтом, вы соглашаетесь на их использование в соответствии с Политикой в отношении обработки cookie ООО «ППГ», в том числе на передачу данных из файлов cookie сторонним статистическим и рекламным службам. Вы можете управлять настройками cookie через параметры вашего браузера