教你88秒插入1000万条数据到mysql数据库表
author:一佰互联 2019-03-29   click:189

简介:作者:BraveLN 来源:https://my.oschina.net/u/3632227/blog/2347849 我用到的数据库为,mysql数据库5.7版本的首先自己准备好数据库表其实我在插入1000万条数据的时候遇到了一些问题,现在先来解决他们,一开始我 ...

作者:BraveLN 来源:https://my.oschina.net/u/3632227/blog/2347849


教你88秒插入1000万条数据到mysql数据库表


我用到的数据库为,mysql数据库5.7版本的

  • 首先自己准备好数据库表

其实我在插入1000万条数据的时候遇到了一些问题,现在先来解决他们,一开始我插入100万条数据时候报错,控制台的信息如下:

com.mysql.jdbc.PacketTooBigException: Packet for query is too large (4232009 > 4194304). You can change this value on the server by setting the max_allowed_packet’ variable.

出现上面的错误是因为数据库表的 max_allowed_packet 这个配置没配置足够大,因为默认的为4M的,后来我调为100M就没报错了

set global max_allowed_packet = 100*1024*1024*

记住,设置好后重新登录数据库才能看的设置后的值

show VARIABLES like "%max_allowed_packet%"

  • 代码如下:


package insert; import java.sql.Connection;import java.sql.DriverManager;import java.sql.SQLException;import java.util.Date; import com.mysql.jdbc.PreparedStatement; public class InsertTest {  public static void main(String[] args) throws ClassNotFoundException, SQLException { final String url = "jdbc:mysql://127.0.0.1/teacher" ;  final String name = "com.mysql.jdbc.Driver" ;  final String user = "root" ;  final String password = "123456" ;  Connection conn = null ;  Class.forName(name); //指定连接类型  conn = DriverManager.getConnection(url, user, password); //获取连接  if (conn!= null ) { System.out.println( "获取连接成功" ); insert(conn); } else { System.out.println( "获取连接失败" ); }  } public static void insert(Connection conn) { // 开始时间 Long begin = new Date().getTime(); // sql前缀 String prefix = "INSERT INTO t_teacher (id,t_name,t_password,sex,description,pic_url,school_name,regist_date,remark) VALUES " ; try { // 保存sql后缀 StringBuffer suffix = new StringBuffer(); // 设置事务为非自动提交 conn.setAutoCommit( false ); // 比起st,pst会更好些 PreparedStatement pst = (PreparedStatement) conn.prepareStatement( "" ); //准备执行语句 // 外层循环,总提交事务次数 for ( int i = 1 ; i <= 100 ; i++) { suffix = new StringBuffer(); // 第j次提交步长 for ( int j = 1 ; j <= 100000 ; j++) { // 构建SQL后缀 suffix.append( "("" + uutil.UUIDUtil.getUUID()+ "","" +i*j+ "","123456"" + ","男"" + ","教师"" + ","www.bbk.com"" + ","XX大学"" + ","" + "2016-08-12 14:43:26" + "","备注"" + ")," ); } // 构建完整SQL String sql = prefix + suffix.substring( 0 , suffix.length() - 1 ); // 添加执行SQL pst.addBatch(sql); // 执行操作 pst.executeBatch(); // 提交事务 conn.commit(); // 清空上一次添加的数据 suffix = new StringBuffer(); } // 头等连接 pst.close(); conn.close(); } catch (SQLException e) { e.printStackTrace(); } // 结束时间 Long end = new Date().getTime(); // 耗时 System.out.println( "1000万条数据插入花费时间 : " + (end - begin) / 1000 + " s" ); System.out.println( "插入完成" ); }}

** 结果:**
哈哈,1000万条数据288秒完成,是不是感觉超级牛逼,我每次插入10万条数据就提交一次事务,如果是一条一条差的话估计要好几个小时,网上有人试过时间浪费在数据库的连接上了,后来我想测试插入100万条数据时候数据库引擎的差别首先把代码中最外层的循环i=100改为i=10;1.数据库引擎为MyISAM时:27s,这个我忘了截图了。因为我后来测试InnoDB的时候我换了一个表来测试,因为我发现改不了数据库表的引擎。。。。所以只能换一个表来测试1.数据库引擎为InnoDB时: 用了77秒,比MyISAW慢了3倍左右,估计要是1000万条数据的时候更慢吧。。。

本文仅代表作者个人观点,不代表巅云官方发声,对观点有疑义请先联系作者本人进行修改,若内容非法请联系平台管理员,邮箱2522407257@qq.com。更多相关资讯,请到巅云www.yinxi.net学习互联网营销技术请到巅云建站www.yx10011.com。