您的位置:澳门新葡8455最新网站 > 数据库管理 > 还不多自动补0,删除MySQL重复数据的措施_Mysql_脚

还不多自动补0,删除MySQL重复数据的措施_Mysql_脚

发布时间:2019-12-09 15:19编辑:数据库管理浏览(113)

    问题描述

    查询数据库表中最近7天的记录

    select count(*),date(create_time) as date from task where datediff(now(),create_time)<=6  group by day(create_time); 
    

     

    但是发现某一天没有数据,结果中没有显示当天(2017-08-28)的数据

    图片 1

    本文实例讲述了删除MySQL重复数据的方法。分享给大家供大家参考。具体方法如下:

    解决思路

    1. 思路一: 可以在自己的程序中做额外的补零处理

    2. 思路二: 构建一个最近七天的结果集,然后和查询的结果集合做left join(本文采用第二种方式)

    select a.click_date,b.count
    from (
        SELECT curdate() as click_date
        union all
        SELECT date_sub(curdate(), interval 1 day) as click_date
        union all
        SELECT date_sub(curdate(), interval 2 day) as click_date
        union all
        SELECT date_sub(curdate(), interval 3 day) as click_date
        union all
        SELECT date_sub(curdate(), interval 4 day) as click_date
        union all
        SELECT date_sub(curdate(), interval 5 day) as click_date
        union all
        SELECT date_sub(curdate(), interval 6 day) as click_date
    ) a left join (
      select date(create_time) as datetime, count(*) as count
      from arms_task
      group by date(create_time)
    ) b on a.click_date = b.datetime;
    

    当天2017-08-28结果显示为NULL

    图片 2

    需要把NULL设置为0,利用ifnull函数即可

    select a.click_date,ifnull(b.count,0) as count
    from (
        SELECT curdate() as click_date
        union all
        SELECT date_sub(curdate(), interval 1 day) as click_date
        union all
        SELECT date_sub(curdate(), interval 2 day) as click_date
        union all
        SELECT date_sub(curdate(), interval 3 day) as click_date
        union all
        SELECT date_sub(curdate(), interval 4 day) as click_date
        union all
        SELECT date_sub(curdate(), interval 5 day) as click_date
        union all
        SELECT date_sub(curdate(), interval 6 day) as click_date
    ) a left join (
      select date(create_time) as datetime, count(*) as count
      from arms_task
      group by date(create_time)
    ) b on a.click_date = b.datetime;
    

     

    图片 3

    项目背景

    在最近做的一个linux性能采集项目中,发现线程的程序入库很慢,再仔细定位,发现数据库里面很多冗余数据。因为在采集中,对于同一台设备,同一个时间点应该只有一个数据,然而,数据库中存入了多个数据。对于如何造成了这个结果,一时没有想清楚,但为了解决入库慢的问题,首先要删除冗余数据。

    问题描述

    数据库的表结构很简单,如下:复制代码 代码如下:+----------------+--------------+------+-----+---------+-------+| Field | Type | Null | Key | Default | Extra |+----------------+--------------+------+-----+---------+-------+| id | varchar | NO | PRI | NULL | || conf_id | varchar | NO | MUL | NULL | || insert_time | datetime | YES | | NULL | || cpu_usage | float | YES | | NULL | || memory_usage | float | YES | | NULL | || io_usage_write | float | YES | | NULL | || io_usage_read | float | YES | | NULL | |+----------------+--------------+------+-----+---------+-------+查询所有数据量复制代码 代码如下:select count from perf_linux;输出 427366

    查询所有时间点不同设备的数据量复制代码 代码如下:select count(distinct conf_id, insert_time) from perf_linux ;输出42387

    由上面的数据可以看出,数据冗余了10倍左右。

    再按时间分组看一下:复制代码 代码如下:select id, conf_id ,insert_time from perf_linux order by insert_time, conf_id;输出:复制代码 代码如下:| 2a79f7cd-43a9-4c7b-adb2-316b6c04283e | 1 | 2014-12-09 15:09:14 || 50d6f6c2-9c8b-45fd-98fd-2be211221cfd | 1 | 2014-12-09 15:09:14 || 740b52e1-e868-4074-ba36-74e2634401b3 | 1 | 2014-12-09 15:09:14 || 8b0096a4-9e85-417b-a131-e3505ca79a9c | 1 | 2014-12-09 15:09:14 || 90a9e882-5220-4508-a56f-8d4ab4a7929b | 1 | 2014-12-09 15:09:14 || d17403ed-24a4-45e8-b51b-2a95118383d9 | 1 | 2014-12-09 15:09:14 || 0c2da917-579b-4080-857d-7159f38b44ac | 2 | 2014-12-09 15:09:14 || 263083eb-8f63-4d2b-a03f-3320aa678735 | 2 | 2014-12-09 15:09:14 || d6c57a38-080b-465a-a55a-beafd9daf32d | 2 | 2014-12-09 15:09:14 || f672227b-1fb8-4b85-880d-2cc34b02880d | 2 | 2014-12-09 15:09:14 || f80020fe-6cb5-48ec-beb0-4e8ebeb0ca57 | 2 | 2014-12-09 15:09:14 || ff633a35-824d-49ba-b78c-5bcc5df8d1cc | 2 | 2014-12-09 15:09:14 || 5c41e48a-abfc-4108-a00e-ca7def7d5a5a | 3 | 2014-12-09 15:09:14 || 60b7ab9e-c91a-4020-a6d3-7bceb1dc47c5 | 3 | 2014-12-09 15:09:14 || 7b6cd2b8-ac6d-43eb-8858-e15885e676c8 | 3 | 2014-12-09 15:09:14 || d53a3df5-08c4-4604-8fac-cb51077935f6 | 3 | 2014-12-09 15:09:14 || d9e4ba14-f98d-42a8-b3bc-2879d58aa797 | 3 | 2014-12-09 15:09:14 || f56f82f6-32a7-47f7-ae07-b13168743884 | 3 | 2014-12-09 15:09:14 || 076c4c1b-0028-4a9c-a8c4-de655bd6ab6b | 4 | 2014-12-09 15:09:14 || 2a90ad9e-11a5-4707-95e8-78491da658ad | 4 | 2014-12-09 15:09:14 || 3b17ad1d-e589-4b65-93a7-d61fc99b4071 | 4 | 2014-12-09 15:09:14 || 6988d6cf-44ef-47f7-808d-09791caf2d90 | 4 | 2014-12-09 15:09:14 || 8404d281-f9e5-4153-a47e-128c05386758 | 4 | 2014-12-09 15:09:14 || e042e310-7ff2-4e4d-8c98-71e3e4d57828 | 4 | 2014-12-09 15:09:14 |+--------------------------------------+---------+---------------------+由上图可见,同一个时间点的同一个设备的数据有冗余,现在我们要把这些冗余数据去掉。

    解决方法

    思路是这样的:首先应该按照conf_id和时间点来判断,进行分组查询,每组中再取一个就可以。分组是很简单,但是分组怎么取一个呢?我采用了中间表的形式。

    创建中间表,并把数据导入中间表复制代码 代码如下:create table perf_linux_t like perf_linux;insert into perf_linux_t select * from perf_linux;在中间表中增加一个字段,此字段是自增长的。复制代码 代码如下:ALTER TABLE `perf_linux_t` ADD COLUMN `auto_id` INT NOT NULL AUTO_INCREMENT ,DROP PRIMARY KEY,ADD PRIMARY KEY ;删除无用数据

    先查询一下复制代码 代码如下:select min as auto_id from perf_linux_t group by insert_time ;删除不对的数据复制代码 代码如下:delete from perf_linux_t where auto_id not in as auto_id from perf_linux_t group by insert_time);慢着,输出错误:

    You can't specify target table 'perf_linux_t' for update in FROM clause

    不能删除啊,那只能再建一个中间表了。

    再建中间表复制代码 代码如下:create table tmp like perf_linux_t;转变思路,不删除不符合的数据,而是把符合的数据存到这张新表中。复制代码 代码如下:insert into tmp select * from perf_linux_t where auto_id in as auto_id from perf_linux_t group by insert_time,conf_id );把这张表中的无用列删除复制代码 代码如下:ALTER TABLE `tmp` DROP COLUMN `auto_id`,DROP PRIMARY KEY;导回数据

    删除原来的数据复制代码 代码如下:truncate table perf_linux;插入数据复制代码 代码如下:insert into perf_linux select * from tmp;删除中间表复制代码 代码如下:drop table tmp;drop table perf_linux_t;总结

    通过这个方法,数据变为了42387条,删除了冗余的数据。但实际上程序的问题并没有完全定位,还需要观察才能定位问题。

    希望本文所述对大家的mysql数据库程序设计有所帮助。

    本文由澳门新葡8455最新网站发布于数据库管理,转载请注明出处:还不多自动补0,删除MySQL重复数据的措施_Mysql_脚

    关键词:

上一篇:没有了

下一篇:导出表结构或数据