开发者社区 > 博文 > 一种读取亿级doris数据库的方法
分享
  • 打开微信扫码分享

  • 点击前往QQ分享

  • 点击前往微博分享

  • 点击复制链接

一种读取亿级doris数据库的方法

  • au****
  • 2023-06-26
  • IP归属:北京
  • 10800浏览

       1、工作中,常常需要将线上doris同步至集市。读取doris数据同读取常规mysql基本相同。如果数据行小于千万,比较简单的方式直接单节点连接、读取和存储。Python示例如下

    def get_data(sql,host='',port=2000,user='',password='',db=''):
        # 支持doris
        import pymysql
        connect = pymysql.connect(host=host,port=port,user=user,password=password,db=db,charset='utf8')
        cursor = connect.cursor()
        cursor.execute('SET query_timeout = 216000;') #单位秒
        cursor.execute(sql)
        result = cursor.fetchall()
        for row in result:
            pass # 存储格式可以自行控制 
        cursor.close()
        connect.close()
        return result

        2.如果数据量比较大,超过千万,甚至过亿,单节点读取会遇到超时以及时效过低的问题。可以使用spark.read.jdbc分布式多节点并发读取。spark读取支持两种方式。

    主要参数介绍:

    read.jdbc(url=url,table=remote_table,column='item_sku_id',numPartitions=50,lowerBound=lowerBound, upperBound=upperBound,properties=prop)

    url:格式如'jdbc:mysql://**.jd.com:2000/数据库名?useUnicode=true&characterEncoding=UTF-8&autoReconnect=true&failOverReadOnly=false&zeroDateTimeBehavior=convertToNull&useSSL=false&serverTimezone=Asia/Shanghai'

    table:可以是表名,也可以是查询sql(也即支持条件查询),如果是sql,格式如"(SELECT count(*) sku FROM rule_price_result where dt='2023-05-10') AS tmp"

    numPartitions:控制并发节点个数

    lowerBound+upperBound和properties二选一,控制每个节点读取的数据范围。

       lowerBound+upperBound方式:指定读取最低和最高值,spark会结合分区个数和最低最高边界机械做分割。

       如果数据分布有倾斜,可以通过predicates列表自行控制范围。


    文章数
    1
    阅读量
    270

    作者其他文章