业务切换流程

注意事项 由于执行业务切换操作需要停止数据库写入并暂停业务,请选择业务低峰期操作以降低影响。为便于区分会话信息以及提升数据安全性,建议单独创建并授权一个数据库账号以供数据迁移使用。操作步骤 等待数据迁移任务的进度变更为 增量...

业务切换流程

注意事项 由于执行业务切换操作需要停止数据库写入并暂停业务,请选择业务低峰期操作以降低影响。为便于区分会话信息以及提升数据安全性,建议单独创建并授权一个数据库账号以供数据迁移使用。操作步骤 等待数据迁移任务的进度变更为 增量...

Schema约束

强约束 与传统关系型数据库类似,时序引擎会严格依据预先定义的表结构对写入数据的表名、字段名、数据类型进行校验。不匹配则写入失败。弱约束 写入数据的表不存在时,时序引擎不会报错,而是会自动创建对应的表。写入数据的新增一个标签...

通过DTS实现数据库的垂直拆分

由于 简易拆分方案 需要短暂暂停业务并暂停向数据库写入数据,请选择业务低峰期操作以降低程序变更发布、切换实例过程中对业务的影响。双写方案 说明 可以实现业务的灰度切流,最大限度保证业务不受影响,但您需要先改造业务的应用程序,使...

限制说明

事务支持 云数据库 Memcache 版不支持事务,有事务性要求的数据不适合写入,而应该直接写入数据库。使用场景 当数据访问分布比较均匀,数据没有明显的冷热分别时,大量的访问请求在云数据库 Memcache 版无法命中,使用云数据库 Memcache 版...

CREATE CONTINUOUS QUERY

示例 以下示例创建了一个持续查询:每小时计算过去两个小时内原始时序表 sensor 中的每小时平均温度和每小时平均湿度,并将数据写入数据库 default 中的表 sensor 中。CREATE CONTINUOUS QUERY `default`.`my_cq` WITH(`INTERVAL`='1h',`...

实时数据消费概述

在采用SQL方式写入数据(UPSERT或UPDATE)但性能不佳时,使用高速数据导入API获得更高吞吐的UPSERT性能。需要将Kafka Topic数据导入 AnalyticDB PostgreSQL版,但不希望使用其他数据集成工具。优势 可直接消费Kafka数据,减少实时处理组件...

数据库管理

入库时间:即时序数据写入数据库的时间。上述冷热分界线和TTL的能力都是基于 事件时间 进行工作。目前不支持基于入库时间设置冷热分界线或TTL。无论是冷数据归档还是数据到期清理工作,都是通过时序引擎的异步compaction任务执行的,因此,...

使用Flink写入时序引擎

batchSize 否 批处理大小,即每次写入数据库的数据量,默认值为500个数据点。connectTimeoutMs 否 HTTP连接超时时间,默认值为90000。单位为毫秒(ms)。debug 否 是否开启debug模式,用来打印详细数据点日志。false:不开启,默认值。true...

性能测试

以时空轨迹数据为7.6 GB为例,写入耗时的测试结果如下:数据库 写入耗时 云原生多模数据库 Lindorm Ganos引擎 7分钟 开源GeoMesa(HBase)13分钟 云数据库MongoDB分片集群 34分钟 创建时空索引后的时空数据存储空间占用情况 创建时空主键...

命令行界面介绍

请先输入 INSERT,然后输入该数据点的信息:>INSERT cpu,host=serverA,region=us_west value=0.64>现在,一个measurement为 cpu,tag为 host 和 region,测量值 value 为 0.64 的数据点已经写入数据库。查询刚刚写入的数据:>SELECT“host...

数据变更最佳实践

向表中写入数据时,可以通过批量打包方式INSERT和REPLACE INTO提高数据写入性能。建议如下:通过每条INSERT或者REPLACE语句写入的数据行数大于1000行,但写入的总数据量不宜太大,不超过16MB。通过批量打包方式写入数据时,单个批次的写入...

快速入门

描述 Topic的描述信息 步骤三:写入数据 DataHub支持多种写入方式,针对日志可以选择Flume等多种插件,针对数据库可以选择DTS、canal,也可以通过SDK写入,在这里使用console工具上传文件的方式写入数据。下载并解压console工具包,配置ak...

TSDB全量迁移至时序引擎

本文介绍时间序列数据库(Time Series Database,简称TSDB)全量迁移至 云原生多模数据库 Lindorm 时序引擎的方法。前提条件 已安装Linux或者macOS操作系统,并且安装以下环境。已安装Java环境,版本为JDK 1.8及以上。已安装Python环境,...

自媒体:易撰

客户价值 在获取数据并写入数据库时并发较高,MySQL单机数据库无法满足写入并发要求,PolarDB-X+RDS满足了高并发写的诉求,实现了更高的业务承载量。分钟级计算节点升配和增加节点,解决客户业务高峰的资源瓶颈。高弹性海量存储,解决客户...

Memcache(OCS)数据

Memcache(原名OCS)数据源为您提供其它数据源向Memcache写入数据的功能,目前仅支持脚本模式配置同步任务,本文为您介绍DataWorks的Memcache(OCS)数据同步的能力支持情况。使用限制 当前仅支持使用脚本模式将数据写入Memcache(OCS)。...

Beam概述(公测)

高吞吐批量导入 当您使用 COPY 或 INSERT INTO SELECT 等批处理方式写入数据时,则会直接写入到列存Base部分,以达到更高的吞吐,获得更高的写入性能。高性能AP查询 Beam引擎使用了多种方式来优化查询的性能,包括:列裁剪技术 支持多种...

创建反向实例

背景信息 DTS支持为正常运行的同步实例一键创建反向增量同步实例,在业务写入数据库由原同步实例的源库切换为目标库时,帮助您将数据库切换后的增量业务数据同步至原业务写入数据库,常应用于数据库容灾场景下的数据回传。前提条件 原实例...

Azure Cosmos DB API for MongoDB迁移至阿里云

使用MongoDB数据库自带的备份还原工具,您可以将Azure Cosmos DB API for MongoDB迁移至阿里云。注意事项 该操作为全量迁移,为避免迁移前后数据不一致,迁移开始前请停止数据库写入。如果您之前使用 mongodump 命令对数据库进行过备份操作...

Kafka集群的数据存储格式

参数说明 参数 说明 database 数据库名称。es 操作在源库的执行时间,13位Unix时间戳,单位为毫秒。说明 Unix时间戳转换工具可用搜索引擎获取。id 操作的序列号。isDdl 是否是DDL操作。true:是。false:否。mysqlType 字段的数据类型。...

Kafka集群的数据存储格式

参数说明 参数 说明 database 数据库名称。es 操作在源库的执行时间,13位Unix时间戳,单位为毫秒。说明 Unix时间戳转换工具可用搜索引擎获取。id 操作的序列号。isDdl 是否是DDL操作。true:是。false:否。mysqlType 字段的数据类型。...

UPSERT

与关系型数据库写入的区别 Lindorm的UPSERT语句写入数据的效果与传统关系型数据库的写入效果存在以下不同:传统关系型数据库 如果表定义了PRIMARY KEY,那么当连续两次写入相同PRIMARY KEY的数据时(使用INSERT语句且不带ON DUPLICATE KEY...

按时间戳冷热分离

您也可以在使用HBase接口写入数据时 自定义时间戳。新写入的数据会先存储在热存储(标准型/性能型)中,随着时间的推移,如果 当前时间-写入时间>COLD_BOUNDARY/CHS设置的值,则会在系统后台执行 compaction 时被归档到冷存储中。说明 ...

写入数据

TSDB 只支持通过 HTTP API 方式进行数据写入,因此控制台不提供数据写入的功能页面。关于数据写入的指导说明,请参考《开发指南》中的以下章节:《SDK 参考》中的 写入数据;《HTTP API 参考》中的 写入数据

通过Logstash写入数据到AnalyticDB MySQL 2.0

本文介绍了如何通过Logstash写入数据。背景信息 Logstash是一个开源的服务器端数据处理管道,起初用于将日志类数据写入ES中。随着开源社区的不断发展,现在Logstash可以同时从多个数据源获取数据,并对其进行转换,然后将其发送到用户想要...

冷热分离

数据库HBase增强版支持冷热分离功能,可以将冷热数据存储在不同的介质中,有效提升热数据的查询效率,同时降低数据存储成本。背景信息 在海量大数据场景下,一张表中的部分业务数据随着时间的推移仅作为归档数据或者访问频率很低,同时这...

REPLACE INTO

写入数据时,会先根据主键判断待写入的数据是否已经存在于表中,并根据判断结果选择不同的方式写入数据:如果待写入数据已经存在,则先删除该行数据,然后插入新的数据。如果待写入数据不存在,则直接插入新数据。说明 本文所指的主键既...

部分参数默认值调整说明

数据库内核小版本V1.1.28(PostgreSQL 11)和V14.5.1.1(PostgreSQL 14)起,PolarDB PostgreSQL版 调整了部分参数的默认值。简介 PolarDB PostgreSQL版 调整了部分参数的默认值,仅针对新建集群生效,参数默认值的调整可以明显提升数据...

通过DataWorks导入数据

本文介绍如何通过...database 否 STRING default 导入TSDB的数据库名。配置调度属性。如何配置,请参见 步骤五:配置调度属性。数据同步 单击 图标运行数据同步任务检查配置是否正确,并提交发布任务。具体操作及介绍,请参见 发布任务。

INTO子句

示例 重命名数据库 SELECT*INTO"copy_NOAA_water_database"."autogen".:MEASUREMENT FROM"NOAA_water_database"."autogen"./.*/GROUP BY*name:result time written-0 76290 在TSDB For InfluxDB®中不能直接重命名数据库,所以 INTO 子句的...

引擎功能

数据管理 数据库管理 时序数据的存储以Database为粒度进行隔离。支持通过SQL对Database的时间分区间隔、冷热分界线、数据过期时间等属性进行设置。具体操作,请参见 数据库管理。用户和权限管理 支持对时序数据的访问进行用户认证以及存储...

如何提升写入效率

本文介绍如何通过优化写入的策略提升TSDB 写入效率:请使用“并发+批量”的方式写入数据。推荐并发大于 256,推荐批量数大于 400。如果通过SDK提交可以遵循一下写入优化的方面和原则:SDK实例创建和销毁:TSDB SDK在一个进程中只需要创建...

功能优势

分析型数据库MySQL版向量分析功能在通用性、性能优化和产品化上与普通向量检索系统相比有以下优势。高维向量数据的高准度和高性能 以典型的人脸512维向量为例,分析型数据库MySQL版向量分析提供百亿向量100 QPS、50毫秒响应时间(RT)约束...

修改同步或迁移实例的当前位点

数据传输服务DTS(Data Transmission Service)支持修改同步或迁移实例增量写入模块的当前位点,帮助您在目标库写入数据时,跳过或再执行一次源某段时间内的数据变更操作。背景信息 当前位点是实例写入到目标端的最新数据的时间戳,DTS...

时序引擎应用开发简介

使用OpenTSDB或时间序列数据库TSDB的应用开发步骤 Lindorm时序引擎兼容相关接口,对于已有使用OpenTSDB或者时间序列数据库TSDB的应用程序,您可以按照以下步骤进行应用迁移:应用适配 修改应用程序中的连接字符串,连接的目标从原有的...

产品功能

数据写入 TSDB 支持通过 HTTP 协议和 TSDB Java Client 两种方式进行数据写入数据查询 TSDB 支持通过 HTTP 协议、TSDB Java Client 以及 TSDB 控制台三种方式进行数据的查询操作。您也可以通过 TSDB 产品控制台的数据查询功能进行数据...

配置Hologres输出组件

Hologres输出组件用于向Hologres数据源写入数据。同步其他数据源的数据至Hologres数据源的场景中,完成源数据的信息配置后,需要配置Hologres输出组件的目标数据源。本文为您介绍如何配置Hologres输出组件。前提条件 已创建Hologres数据源...

数据传输服务(上传)场景与工具

例如上传数据源可以是外部文件、外部数据库、外部对象存储或日志文件。MaxCompute中批量数据通道上传包含如下方案。Tunnel SDK:您可以通过 Tunnel 向MaxCompute中上传数据。数据同步服务:您可以通过 数据集成(DataWorks)任务,提取、...

配置Hologres输出组件

Hologres输出组件用于向Hologres数据源写入数据。同步其他数据源的数据至Hologres数据源的场景中,完成源数据的信息配置后,需要配置Hologres输出组件的目标数据源。本文为您介绍如何配置Hologres输出组件。前提条件 已创建Hologres数据源...

数据传输与迁移概述

MaxCompute提供多种渠道,以便您从业务系统或外部数据源写入数据到MaxCompute,或者从MaxCompute写出数据到外部系统或外部数据源。数据传输渠道 SDK-Tunnel渠道 外表(湖仓一体)JDBC渠道 场景数据写入MaxCompute 离线数据批量写入数据...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 Redis 版 云数据库 RDS 数据库备份 DBS 云数据库 MongoDB 版 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用