| От | Thomas Swan |
|---|---|
| Тема | Re: Bulkloading using COPY - ignore duplicates? |
| Дата | |
| Msg-id | 3BB880F0.8090006@olemiss.edu обсуждение исходный текст |
| Ответ на | Bulkloading using COPY - ignore duplicates? (Lee Kindness <lkindness@csl.co.uk>) |
| Список | pgsql-hackers |
Zeugswetter Andreas SB SD wrote:<br /><blockquote cite="mid:46C15C39FEB2C44BA555E356FBCD6FA41EB3A0@m0114.s-mxs.net" type="cite"><blockquotetype="cite"><pre wrap="">IMHO, you should copy into a temporary table and the do a select <br />distinctfrom it into the table that you want.<br /></pre></blockquote><pre wrap=""><br />Which would be way too slow fornormal operation :-(<br />We are talking about a "fast as possible" data load from a flat file<br />that may have duplicates(or even data errors, but that <br />is another issue).<br /><br />Andreas<br /></pre></blockquote> Then the IGNORE_DUPLICATEwould definitely be the way to go, if speed is the question...<br /><br /><br /><br />
В списке pgsql-hackers по дате отправления:
Сайт использует файлы cookie для корректной работы и повышения удобства. Нажимая кнопку «Принять» или продолжая пользоваться сайтом, вы соглашаетесь на их использование в соответствии с Политикой в отношении обработки cookie ООО «ППГ», в том числе на передачу данных из файлов cookie сторонним статистическим и рекламным службам. Вы можете управлять настройками cookie через параметры вашего браузера