JDP 發表於 2007-2-26 10:26:05

如何刪除資料表中設計重複的數據

我們可能會出現這種情況,某個表原來設計不周全,導致表裡面的數據數據重複,那麼,如何對重複的數據進行刪除呢?
重複的數據可能有這樣兩種情況,第一種時表中只有某些字段一樣,第二種是兩行記錄完全一樣。

一、對於部分字段重複數據的刪除
先來談談如何查詢重複的數據吧。
下面語句可以查詢出那些數據是重複的:
select 字段1,字段2,count(*) from 表名 group by 字段1,字段2 having count(*) > 1
將上面的>號改為=號就可以查詢出沒有重複的數據了。
想要刪除這些重複的數據,可以使用下面語句進行刪除
delete from 表名 a where 字段1,字段2 in(select 字段1,字段2,count(*) from 表名 group by 字段1,字段2 having count(*) > 1)
上面的語句非常簡單,就是將查詢到的數據刪除掉。不過這種刪除執行的效率非常低,對於大數據量來說,可能會將數據庫吊死。所以我建議先將查詢到的重複的數據插入到一個臨時表中,然後對進行刪除,這樣,執行刪除的時候就不用再進行一次查詢了。如下:
CREATE TABLE 臨時表 AS(select 字段1,字段2,count(*) from 表名 group by 字段1,字段2 having count(*) > 1)
上面這句話就是建立了臨時表,並將查詢到的數據插入其中。
下面就可以進行這樣的刪除操作了:
delete from 表名 a where 字段1,字段2 in (select 字段1,字段2 from 臨時表);
這種先建臨時表再進行刪除的操作要比直接用一條語句進行刪除要高效得多。
這個時候,大家可能會跳出來說,什麼?你叫我們執行這種語句,那不是把所有重複的全都刪除嗎?而我們想保留重複數據中最新的一條記錄啊!大家不要急,下面我就講一下如何進行這種操作。
在oracle中,有個隱藏了自動rowid,裡面給每條記錄一個唯一的rowid,我們如果想保留最新的一條記錄,
我們就可以利用這個字段,保留重複數據中rowid最大的一條記錄就可以了。
下面是查詢重複數據的一個例子:
select a.rowid,a.* from 表名 a where a.rowid != ( select max(b.rowid) from 表名 b where a.字段1 = b.字段1 and a.字段2 = b.字段2 )
下面我就來講解一下,上面括號中的語句是查詢出重複數據中rowid最大的一條記錄。
而外面就是查詢出除了rowid最大之外的其他重複的數據了。
由此,我們要刪除重複數據,只保留最新的一條數據,就可以這樣寫了:
delete from 表名 a where a.rowid != ( select max(b.rowid) from 表名 b where a.字段1 = b.字段1 and a.字段2 = b.字段2 )
隨便說一下,上面語句的執行效率是很低的,可以考慮建立臨時表,講需要判斷重複的字段、rowid插入臨時表中,然後刪除的時候在進行比較。
create table 臨時表 as select a.字段1,a.字段2,MAX(a.ROWID) dataid from 正式表 a GROUP BY a.字段1,a.字段2; delete from 表名 a where a.rowid != ( select b.dataid from 臨時表 b where a.字段1 = b.字段1 and a.字段2 = b.字段2 ); commit;

二、對於完全重複記錄的刪除
對於表中兩行記錄完全一樣的情況,可以用下面語句獲取到去掉重複數據後的記錄:
select distinct * from 表名
可以將查詢的記錄放到臨時表中,然後再將原來的表記錄刪除,最後將臨時表的數據導回原來的表中。如下:
CREATE TABLE 臨時表 AS (select distinct * from 表名); drop table 正式表; insert into 正式表 (select * from 臨時表); drop table 臨時表;
如果想刪除一個表的重複數據,可以先建一個臨時表,將去掉重複數據後的數據導入到臨時表,然後在從臨時表將數據導入正式表中,如下:
INSERT INTO t_table_bakselect distinct * from t_table;

Reference: http://www.365master.com/kt_article_show.php?article_id=12018&categ_code=10151008
頁: [1]
查看完整版本: 如何刪除資料表中設計重複的數據