阿里云文档 2025-10-23

安装HBase SDK并使用Lindorm

连接宽表引擎前,您需要根据使用的API安装相应的SDK。Lindorm支持通过HBase Java API和HBase非Java API进行访问。本文介绍如何安装HBase SDK。

阿里云文档 2025-08-08

通过HBase Java API访问宽表引擎

本文介绍通过HBase Java API访问Lindorm宽表引擎的具体操作和使用示例。

阿里云文档 2025-07-18

通过HBase非JavaAPI连接并使用宽表引擎

云原生多模数据库 Lindorm宽表引擎支持通过HBase非Java(例如C++、Python和Go等)API进行访问,本文介绍具体的访问操作。

文章 2023-12-20 来自:开发者社区

【大数据技术Hadoop+Spark】HBase数据模型、Shell操作、Java API示例程序讲解(附源码 超详细)

一、HBase数据模型HBase分布式数据库的数据存储在行列式的表格中,它是一个多维度的映射模型,其数据模型如下所示。表的索引是行键,列族,列限定符和时间戳,表在水平方向由一个或者多个列族组成,一个列族中可以包含任意多个列,列族支持动态扩展,可以很轻松的添加一个列族或者列,无须预先定义列的数量及数据类型,所有列均以字符串形式存储RowKey表示行键,每个HBase表中只能有一个行键,它在HBas....

【大数据技术Hadoop+Spark】HBase数据模型、Shell操作、Java API示例程序讲解(附源码 超详细)
阿里云文档 2023-02-27

HBaseJavaAPI访问宽表引擎的使用限制

Lindorm支持通过HBase Java API进行访问,但目前存在以下几个方面的使用限制。

阿里云文档 2022-01-13

问题描述Dataphin中Hive数据通过管道任务同步到Hbase数据库,运行报错"java.lang.IllegalArgumentException: KeyValue size too large"。具体日志如下所示:2021-12-22 14:39:38.179 [0-0-99-reader...

文章 2018-10-11 来自:开发者社区

spark大批量读取Hbase时出现java.lang.OutOfMemoryError: unable to create new native thread

这个问题我去网上搜索了一下,发现了很多的解决方案都是增加的nproc数量,即用户最大线程数的数量,但我修改了并没有解决问题,最终是通过修改hadoop集群的最大线程数解决问题的。并且网络上的回答多数关于增加nproc的答案不完整,我这里顺便记录一下。 用户最大线程数可以通过linux下的命令 ulimit -a 查看,屏幕输出中的max user processes就是用户最大线程数,默认通常为....

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

Java开发者

Java开发者成长课堂,课程资料学习,实战案例解析,Java工程师必备词汇等你来~

+关注