分享

Spring Boot MyBatis Druid PageHelper 实现多数据源并...

 西北望msm66g9f 2019-12-08

前言

本篇文章主要讲述的是 Spring Boo t整合Mybatis、Druid和PageHelper 并实现多数据源和分页。其中Spring Boot整合Mybatis这块,在之前的的一篇文章中已经讲述了,这里就不过多说明了。重点是讲述在多数据源下的如何配置使用Druid和PageHelper 

Druid介绍和使用

在使用Druid之前,先来简单的了解下Druid。
Druid是一个数据库连接池。Druid可以说是目前最好的数据库连接池!因其优秀的功能、性能和扩展性方面,深受开发人员的青睐。
Druid已经在阿里巴巴部署了超过600个应用,经过一年多生产环境大规模部署的严苛考验。Druid是阿里巴巴开发的号称为监控而生的数据库连接池!
同时Druid不仅仅是一个数据库连接池,Druid 核心主要包括三部分:
  • 基于Filter-Chain模式的插件体系。
  • DruidDataSource 高效可管理的数据库连接池。
  • SQLParser
Druid的主要功能如下:
  • 是一个高效、功能强大、可扩展性好的数据库连接池。
  • 可以监控数据库访问性能。
  • 数据库密码加密
  • 获得SQL执行日志
  • 扩展JDBC
介绍方面这块就不再多说,具体的可以看官方文档。那么开始介绍Druid如何使用。
首先是Maven依赖,只需要添加druid这一个jar就行了。
<dependency>
         <groupId>com.alibaba</groupId>
         <artifactId>druid</artifactId>
         <version>1.1.8</version>
  </dependency>
Tips:可以关注微信公众号:Java后端,获取Maven教程和每日技术博文推送。
配置方面,主要的只需要在application.properties或application.yml添加如下就可以了。
说明:因为这里我是用来两个数据源,所以稍微有些不同而已。Druid 配置的说明在下面中已经说的很详细了,这里我就不在说明了。
## 默认的数据源
master.datasource.url=jdbc:mysql://localhost:3306/springBoot?useUnicode=true&characterEncoding=utf8&allowMultiQueries=true
master.datasource.username=root
master.datasource.password=123456
master.datasource.driverClassName=com.mysql.jdbc.Driver

#
# 另一个的数据源
cluster.datasource.url=jdbc:mysql://localhost:3306/springBoot_test?useUnicode=true&characterEncoding=utf8
cluster.datasource.username=root
cluster.datasource.password=123456
cluster.datasource.driverClassName=com.mysql.jdbc.Driver

#
 连接池的配置信息
# 初始化大小,最小,最大
spring.datasource.type=com.alibaba.druid.pool.DruidDataSource
spring.datasource.initialSize=5
spring.datasource.minIdle=5
spring.datasource.maxActive=20
# 配置获取连接等待超时的时间
spring.datasource.maxWait=60000
# 配置间隔多久才进行一次检测,检测需要关闭的空闲连接,单位是毫秒
spring.datasource.timeBetweenEvictionRunsMillis=60000
# 配置一个连接在池中最小生存的时间,单位是毫秒
spring.datasource.minEvictableIdleTimeMillis=300000
spring.datasource.validationQuery=SELECT 1 FROM DUAL
spring.datasource.testWhileIdle=true
spring.datasource.testOnBorrow=false
spring.datasource.testOnReturn=false
# 打开PSCache,并且指定每个连接上PSCache的大小
spring.datasource.poolPreparedStatements=true
spring.datasource.maxPoolPreparedStatementPerConnectionSize=20
# 配置监控统计拦截的filters,去掉后监控界面sql无法统计,'wall'用于防火墙
spring.datasource.filters=stat,wall,log4j
# 通过connectProperties属性来打开mergeSql功能;慢SQL记录
spring.datasource.connectionProperties=druid.stat.mergeSql=true;druid.stat.slowSqlMillis=5000
成功添加了配置文件之后,我们再来编写Druid相关的类。
首先是MasterDataSourceConfig.java这个类,这个是默认的数据源配置类。
@Configuration
@MapperScan(basePackages = MasterDataSourceConfig.PACKAGE, sqlSessionFactoryRef = 'masterSqlSessionFactory')
public class MasterDataSourceConfig {

    static final String PACKAGE = 'com.pancm.dao.master';
    static final String MAPPER_LOCATION = 'classpath:mapper/master/*.xml';

    @Value('${master.datasource.url}')
    private String url;

    @Value('${master.datasource.username}')
    private String username;

    @Value('${master.datasource.password}')
    private String password;

    @Value('${master.datasource.driverClassName}')
    private String driverClassName;

    @Value('${spring.datasource.initialSize}')
    private int initialSize;

    @Value('${spring.datasource.minIdle}')
    private int minIdle;

    @Value('${spring.datasource.maxActive}')
    private int maxActive;

    @Value('${spring.datasource.maxWait}')
    private int maxWait;

    @Value('${spring.datasource.timeBetweenEvictionRunsMillis}')
    private int timeBetweenEvictionRunsMillis;

    @Value('${spring.datasource.minEvictableIdleTimeMillis}')
    private int minEvictableIdleTimeMillis;

    @Value('${spring.datasource.validationQuery}')
    private String validationQuery;

    @Value('${spring.datasource.testWhileIdle}')
    private boolean testWhileIdle;

    @Value('${spring.datasource.testOnBorrow}')
    private boolean testOnBorrow;

    @Value('${spring.datasource.testOnReturn}')
    private boolean testOnReturn;

    @Value('${spring.datasource.poolPreparedStatements}')
    private boolean poolPreparedStatements;

    @Value('${spring.datasource.maxPoolPreparedStatementPerConnectionSize}')
    private int maxPoolPreparedStatementPerConnectionSize;

    @Value('${spring.datasource.filters}')
    private String filters;

    @Value('{spring.datasource.connectionProperties}')
    private String connectionProperties;


    @Bean(name = 'masterDataSource')
    @Primary 
    public DataSource masterDataSource() {
        DruidDataSource dataSource = new DruidDataSource();
        dataSource.setUrl(url);
        dataSource.setUsername(username);
        dataSource.setPassword(password);
        dataSource.setDriverClassName(driverClassName);

        //具体配置
        dataSource.setInitialSize(initialSize);
        dataSource.setMinIdle(minIdle);
        dataSource.setMaxActive(maxActive);
        dataSource.setMaxWait(maxWait);
        dataSource.setTimeBetweenEvictionRunsMillis(timeBetweenEvictionRunsMillis);
        dataSource.setMinEvictableIdleTimeMillis(minEvictableIdleTimeMillis);
        dataSource.setValidationQuery(validationQuery);
        dataSource.setTestWhileIdle(testWhileIdle);
        dataSource.setTestOnBorrow(testOnBorrow);
        dataSource.setTestOnReturn(testOnReturn);
        dataSource.setPoolPreparedStatements(poolPreparedStatements);
        dataSource.setMaxPoolPreparedStatementPerConnectionSize(maxPoolPreparedStatementPerConnectionSize);
        try {
            dataSource.setFilters(filters);
        } catch (SQLException e) {
            e.printStackTrace();
        }
        dataSource.setConnectionProperties(connectionProperties);
        return dataSource;
    }

    @Bean(name = 'masterTransactionManager')
    @Primary
    public DataSourceTransactionManager masterTransactionManager() {
        return new DataSourceTransactionManager(masterDataSource());
    }

    @Bean(name = 'masterSqlSessionFactory')
    @Primary
    public SqlSessionFactory masterSqlSessionFactory(@Qualifier('masterDataSource') DataSource masterDataSource)
            throws Exception
{
        final SqlSessionFactoryBean sessionFactory = new SqlSessionFactoryBean();
        sessionFactory.setDataSource(masterDataSource);
        sessionFactory.setMapperLocations(new PathMatchingResourcePatternResolver()
                .getResources(MasterDataSourceConfig.MAPPER_LOCATION));
        return sessionFactory.getObject();
    }
}
其中这两个注解说明下:
  • @Primary :标志这个 Bean 如果在多个同类 Bean 候选时,该 Bean
    优先被考虑。多数据源配置的时候注意,必须要有一个主数据源,用 @Primary 标志该 Bean。
  • @MapperScan: 扫描 Mapper 接口并容器管理。
需要注意的是sqlSessionFactoryRef 表示定义一个唯一 SqlSessionFactory 实例。
上面的配置完之后,就可以将Druid作为连接池使用了。但是Druid并不简简单单的是个连接池,它也可以说是一个监控应用,它自带了web监控界面,可以很清晰的看到SQL相关信息。
在SpringBoot中运用Druid的监控作用,只需要编写StatViewServlet和WebStatFilter类,实现注册服务和过滤规则。这里我们可以将这两个写在一起,使用@Configuration和@Bean。
为了方便理解,相关的配置说明也写在代码中了,这里就不再过多赘述了。
代码如下:
@Configuration
public class DruidConfiguration {

    @Bean
    public ServletRegistrationBean druidStatViewServle() {
        //注册服务
        ServletRegistrationBean servletRegistrationBean = new ServletRegistrationBean(
                new StatViewServlet(), '/druid/*');
        // 白名单(为空表示,所有的都可以访问,多个IP的时候用逗号隔开)
        servletRegistrationBean.addInitParameter('allow', '127.0.0.1');
        // IP黑名单 (存在共同时,deny优先于allow)
        servletRegistrationBean.addInitParameter('deny', '127.0.0.2');
        // 设置登录的用户名和密码
        servletRegistrationBean.addInitParameter('loginUsername', 'pancm');
        servletRegistrationBean.addInitParameter('loginPassword', '123456');
        // 是否能够重置数据.
        servletRegistrationBean.addInitParameter('resetEnable', 'false');
        return servletRegistrationBean;
    }

    @Bean
    public FilterRegistrationBean druidStatFilter() {
        FilterRegistrationBean filterRegistrationBean = new FilterRegistrationBean(
                new WebStatFilter());
        // 添加过滤规则
        filterRegistrationBean.addUrlPatterns('/*');
        // 添加不需要忽略的格式信息
        filterRegistrationBean.addInitParameter('exclusions',
                '*.js,*.gif,*.jpg,*.png,*.css,*.ico,/druid/*');
        System.out.println('druid初始化成功!');
        return filterRegistrationBean;

    }
}
编写完之后,启动程序,在浏览器输入:http://127.0.0.1:8084/druid/index.html ,然后输入设置的用户名和密码,便可以访问Web界面了。

多数据源配置

在进行多数据源配置之前,先分别在springBoot和springBoot_test的mysql数据库中执行如下脚本。
-- springBoot库的脚本

CREATE TABLE `t_user` (
  `id` int(11) NOT NULL AUTO_INCREMENT COMMENT '自增id',
  `name` varchar(10) DEFAULT NULL COMMENT '姓名',
  `age` int(2) DEFAULT NULL COMMENT '年龄',
  PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=15 DEFAULT CHARSET=utf8

-- springBoot_test库的脚本

CREATE TABLE `t_student` (
  `id` int(11) NOT NULL AUTO_INCREMENT,
  `name` varchar(16) DEFAULT NULL,
  `age` int(11) DEFAULT NULL,
  PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=2 DEFAULT CHARSET=utf8
注:为了偷懒,将两张表的结构弄成一样了!不过不影响测试!
在application.properties中已经配置这两个数据源的信息,上面已经贴出了一次配置,这里就不再贴了。
这里重点说下 第二个数据源的配置。和上面的MasterDataSourceConfig.java差不多,区别在与没有使用@Primary 注解和名称不同而已。需要注意的是MasterDataSourceConfig.java对package和mapper的扫描是精确到目录的,这里的第二个数据源也是如此。
那么代码如下:
@Configuration
@MapperScan(basePackages = ClusterDataSourceConfig.PACKAGE, sqlSessionFactoryRef = 'clusterSqlSessionFactory')
public class ClusterDataSourceConfig {

 static final String PACKAGE = 'com.pancm.dao.cluster';
 static final String MAPPER_LOCATION = 'classpath:mapper/cluster/*.xml';

 @Value('${cluster.datasource.url}')
 private String url;

 @Value('${cluster.datasource.username}')
 private String username;

 @Value('${cluster.datasource.password}')
 private String password;

 @Value('${cluster.datasource.driverClassName}')
 private String driverClass;

 // 和MasterDataSourceConfig一样,这里略

 @Bean(name = 'clusterDataSource')
 public DataSource clusterDataSource() {
     DruidDataSource dataSource = new DruidDataSource();
     dataSource.setUrl(url);
     dataSource.setUsername(username);
     dataSource.setPassword(password);
     dataSource.setDriverClassName(driverClass);

     // 和MasterDataSourceConfig一样,这里略 ...
     return dataSource;
 }

 @Bean(name = 'clusterTransactionManager')
 public DataSourceTransactionManager clusterTransactionManager() {
     return new DataSourceTransactionManager(clusterDataSource());
 }

 @Bean(name = 'clusterSqlSessionFactory')
 public SqlSessionFactory clusterSqlSessionFactory(@Qualifier('clusterDataSource') DataSource clusterDataSource)
         throws Exception
{
     final SqlSessionFactoryBean sessionFactory = new SqlSessionFactoryBean();
     sessionFactory.setDataSource(clusterDataSource);
     sessionFactory.setMapperLocations(new PathMatchingResourcePatternResolver().getResources(ClusterDataSourceConfig.MAPPER_LOCATION));
     return sessionFactory.getObject();
 }
}
成功写完配置之后,启动程序,进行测试。
分别在springBoot和springBoot_test库中使用接口进行添加数据。
t_user
POST http://localhost:8084/api/user
{'name':'张三','age':25}
{'name':'李四','age':25}
{'name':'王五','age':25}
t_student
POST http://localhost:8084/api/student
{'name':'学生A','age':16}
{'name':'学生B','age':17}
{'name':'学生C','age':18}
成功添加数据之后,然后进行调用不同的接口进行查询。
请求:
GET http://localhost:8084/api/user?name=李四
返回:
{
    'id': 2,
    'name': '李四',
    'age': 25
}
请求:
GET http://localhost:8084/api/student?name=学生C
返回:
{
    'id': 1,
    'name': '学生C',
    'age': 16
}
通过数据可以看出,成功配置了多数据源了。

PageHelper 分页实现

PageHelper是Mybatis的一个分页插件,非常的好用!这里强烈推荐!!!
PageHelper的使用很简单,只需要在Maven中添加pagehelper这个依赖就可以了。
Maven的依赖如下:
<dependency>
   <groupId>com.github.pagehelper</groupId>
   <artifactId>pagehelper-spring-boot-starter</artifactId>
   <version>1.2.3</version>
</dependency>
注:这里我是用springBoot版的!也可以使用其它版本的。
添加依赖之后,只需要添加如下配置或代码就可以了。
第一种,在application.properties或application.yml添加
pagehelper:
  helperDialect: mysql
  offsetAsPageNum: true
  rowBoundsWithCount: true
  reasonable: false
第二种,在mybatis.xml配置中添加
<bean id='sqlSessionFactory' class='org.mybatis.spring.SqlSessionFactoryBean'>
    <property name='dataSource' ref='dataSource' />
    <!-- 扫描mapping.xml文件 -->
    <property name='mapperLocations' value='classpath:mapper/*.xml'></property>
    <!-- 配置分页插件 -->
     <property name='plugins'>
        <array>
          <bean class='com.github.pagehelper.PageHelper'>
            <property name='properties'>
              <value>
                helperDialect=mysql
                offsetAsPageNum=true
                rowBoundsWithCount=true
                reasonable=false
              </value>
            </property>
          </bean>
        </array>
      </property>
  </bean>
第三种,在代码中添加,使用@Bean注解在启动程序的时候初始化。
@Bean
  public PageHelper pageHelper(){
    PageHelper pageHelper = new PageHelper();
   Properties properties = new Properties();
   //数据库
   properties.setProperty('helperDialect', 'mysql');
   //是否将参数offset作为PageNum使用
   properties.setProperty('offsetAsPageNum', 'true');
   //是否进行count查询
   properties.setProperty('rowBoundsWithCount', 'true');
   //是否分页合理化
   properties.setProperty('reasonable', 'false');
   pageHelper.setProperties(properties);
  }
因为这里我们使用的是多数据源,所以这里的配置稍微有些不同。我们需要在sessionFactory这里配置。这里就对MasterDataSourceConfig.java进行相应的修改。
在masterSqlSessionFactory方法中,添加如下代码。
@Bean(name = 'masterSqlSessionFactory')
    @Primary
    public SqlSessionFactory masterSqlSessionFactory(@Qualifier('masterDataSource') DataSource masterDataSource)
            throws Exception
{
        final SqlSessionFactoryBean sessionFactory = new SqlSessionFactoryBean();
        sessionFactory.setDataSource(masterDataSource);
        sessionFactory.setMapperLocations(new PathMatchingResourcePatternResolver()
                .getResources(MasterDataSourceConfig.MAPPER_LOCATION));
        //分页插件
        Interceptor interceptor = new PageInterceptor();
        Properties properties = new Properties();
        //数据库
        properties.setProperty('helperDialect', 'mysql');
        //是否将参数offset作为PageNum使用
        properties.setProperty('offsetAsPageNum', 'true');
        //是否进行count查询
        properties.setProperty('rowBoundsWithCount', 'true');
        //是否分页合理化
        properties.setProperty('reasonable', 'false');
        interceptor.setProperties(properties);
        sessionFactory.setPlugins(new Interceptor[] {interceptor});

    return sessionFactory.getObject();
  }
注:其它的数据源也想进行分页的时候,参照上面的代码即可。
这里需要注意的是reasonable参数,表示分页合理化,默认值为false。如果该参数设置为 true 时,pageNum<=0 时会查询第一页,pageNum>pages(超过总数时),会查询最后一页。默认false 时,直接根据参数进行查询。
设置完PageHelper 之后,使用的话,只需要在查询的sql前面添加PageHelper.startPage(pageNum,pageSize);,如果是想知道总数的话,在查询的sql语句后买呢添加 page.getTotal()就可以了。
代码示例:
public List<T> findByListEntity(T entity) {
        List<T> list = null;
        try {
            Page<?> page =PageHelper.startPage(1,2);
            System.out.println(getClassName(entity)+'设置第一页两条数据!');
            list = getMapper().findByListEntity(entity);
            System.out.println('总共有:'+page.getTotal()+'条数据,实际返回:'+list.size()+'两条数据!');
        } catch (Exception e) {
            logger.error('查询'+getClassName(entity)+'失败!原因是:',e);
        }
        return list;
    
代码编写完毕之后,开始进行最后的测试。
查询t_user表的所有的数据,并进行分页。
请求:
GET http://localhost:8084/api/user
返回:
[
    {
        'id': 1,
        'name': '张三',
        'age': 25
    },
    {
        'id': 2,
        'name': '李四',
        'age': 25
    }
]
控制台打印:
开始查询...
User设置第一页两条数据!
2018-04-27 19:55:50.769 DEBUG 6152 --- [io-8084-exec-10] c.p.d.m.UserDao.findByListEntity_COUNT : ==> Preparing: SELECT count(0) FROM t_user WHERE 1 = 1 
2018-04-27 19:55:50.770 DEBUG 6152 --- [io-8084-exec-10] c.p.d.m.UserDao.findByListEntity_COUNT : ==> Parameters: 
2018-04-27 19:55:50.771 DEBUG 6152 --- [io-8084-exec-10] c.p.d.m.UserDao.findByListEntity_COUNT : <== Total: 1
2018-04-27 19:55:50.772 DEBUG 6152 --- [io-8084-exec-10] c.p.dao.master.UserDao.findByListEntity : ==> Preparing: select id, name, age from t_user where 1=1 LIMIT ?
2018-04-27 19:55:50.773 DEBUG 6152 --- [io-8084-exec-10] c.p.dao.master.UserDao.findByListEntity : ==> Parameters: 2(Integer)
2018-04-27 19:55:50.774 DEBUG 6152 --- [io-8084-exec-10] c.p.dao.master.UserDao.findByListEntity : <== Total: 2
总共有:3条数据,实际返回:2两条数据!
查询t_student表的所有的数据,并进行分页
请求:
GET http://localhost:8084/api/student
返回:
[
    {
        'id': 1,
        'name': '学生A',
        'age': 16
    },
    {
        'id': 2,
        'name': '学生B',
        'age': 17
    }
]
控制台打印:
开始查询...
Studnet设置第一页两条数据!
2018-04-27 19:54:56.155 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.S.findByListEntity_COUNT : ==> Preparing: SELECT count(0) FROM t_student WHERE 1 = 1 
2018-04-27 19:54:56.155 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.S.findByListEntity_COUNT : ==> Parameters: 
2018-04-27 19:54:56.156 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.S.findByListEntity_COUNT : <== Total: 1
2018-04-27 19:54:56.157 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.StudentDao.findByListEntity : ==> Preparing: select id, name, age from t_student where 1=1 LIMIT ?
2018-04-27 19:54:56.157 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.StudentDao.findByListEntity : ==> Parameters: 2(Integer)
2018-04-27 19:54:56.157 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.StudentDao.findByListEntity : <== Total: 2
总共有:3条数据,实际返回:2两条数据!
查询完毕之后,我们再来看Druid 的监控界面。
在浏览器输入:http://127.0.0.1:8084/druid/index.html
可以很清晰的看到操作记录!
如果想知道更多的Druid相关知识,可以查看官方文档!

结语

这篇终于写完了,在进行代码编写的时候,碰到过很多问题,然后慢慢的尝试和找资料解决了。本篇文章只是很浅的介绍了这些相关的使用,在实际的应用可能会更复杂。如果有有更好的想法和建议,欢迎留言进行讨论!
参考文章:
https://www./?p=1712
Durid官方地址:
https://github.com/alibaba/druid
PageHelper官方地址:
https://github.com/pagehelper/Mybatis-PageHelper
文中源码:
https://github.com/xuwujing/springBoot

作者 | 虚无境

链接 | cnblogs.com/xuwujing/p/8964927.html

推荐TensorFlow+PyTorch深度学习从算法到实战

编辑推荐

从深度学习框架到开发理念的跃迁。本书基于TensorFlow+PyTorch 两大主流框架,用5-4-6速成法(5步+4种元素+6种基本网络结构)搭建了一套完整的深度学习知识体系,是程序员必备的“深度学习开发指南”。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多