| От | Holger Jakobs |
|---|---|
| Тема | Re: how to make duplicate finding query faster? |
| Дата | |
| Msg-id | 5bf642e4-eb22-8eba-e96d-5b33b5010b03@jakobs.com обсуждение |
| Ответ на | how to make duplicate finding query faster? (Sachin Kumar <sachinkumaras@gmail.com>) |
| Ответы |
Re: how to make duplicate finding query faster?
|
| Список | pgsql-admin |
Hi All,I am uploading data into PostgreSQL using the CSV file and checking if there is any duplicates value in DB it should return a duplicate error. I am using below mention query.if Card_Bank.objects.filter( Q(ACCOUNT_NUMBER=card_number) ).exists():
flag=2
else:
flag=1it is taking too much time i am using 600k cards in CSV.Kindly help me in making the query faster.I am using Python, Django & PostgreSQL.--
Best Regards,
Sachin Kumar
I think it would be easier to not check the duplicates before, but let the DB complain about duplicates.
That would about slash the roundtrips to the DB in half. Instead of check + insert there would be only an insert, which might fail every now and then.
Regards,
Holger
-- Holger Jakobs, Bergisch Gladbach, Tel. +49-178-9759012
В списке pgsql-admin по дате отправления:
Сайт использует файлы cookie для корректной работы и повышения удобства. Нажимая кнопку «Принять» или продолжая пользоваться сайтом, вы соглашаетесь на их использование в соответствии с Политикой в отношении обработки cookie ООО «ППГ», в том числе на передачу данных из файлов cookie сторонним статистическим и рекламным службам. Вы можете управлять настройками cookie через параметры вашего браузера