如何使用Java API操作Hbase

如题所述

    先导入hbase的相关jar包。

    再根据api进行操作。

    package com.util;

    import java.io.IOException;
    import java.util.ArrayList;
    import java.util.List;

    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.hbase.HBaseConfiguration;
    import org.apache.hadoop.hbase.HColumnDescriptor;
    import org.apache.hadoop.hbase.HTableDescriptor;
    import org.apache.hadoop.hbase.KeyValue;
    import org.apache.hadoop.hbase.MasterNotRunningException;
    import org.apache.hadoop.hbase.TableName;
    import org.apache.hadoop.hbase.ZooKeeperConnectionException;
    import org.apache.hadoop.hbase.client.Connection;
    import org.apache.hadoop.hbase.client.ConnectionFactory;
    import org.apache.hadoop.hbase.client.Delete;
    import org.apache.hadoop.hbase.client.Get;
    import org.apache.hadoop.hbase.client.HBaseAdmin;
    import org.apache.hadoop.hbase.client.HTable;
    import org.apache.hadoop.hbase.client.HTablePool;
    import org.apache.hadoop.hbase.client.Put;
    import org.apache.hadoop.hbase.client.Result;
    import org.apache.hadoop.hbase.client.ResultScanner;
    import org.apache.hadoop.hbase.client.Scan;
    import org.apache.hadoop.hbase.client.Table;
    import org.apache.hadoop.hbase.filter.CompareFilter.CompareOp;
    import org.apache.hadoop.hbase.filter.Filter;
    import org.apache.hadoop.hbase.filter.FilterList;
    import org.apache.hadoop.hbase.filter.SingleColumnValueFilter;
    import org.apache.hadoop.hbase.util.Bytes;

    public class HBaseUtil {

    public static Configuration configuration;  
        static {  
            configuration = HBaseConfiguration.create();  
            configuration.set("hbase.zookeeper.property.clientPort", "2181");  
            configuration.set("hbase.zookeeper.quorum", "192.168.1.103");  
            configuration.set("hbase.master", "192.168.1.103:600000");  
        } 
        
        public static void main(String[] args) throws IOException {  
             createTable("abc");  
             insertData("abc");  
             QueryAll("abc");    
        }  
      
        /** 
         * 创建表 
         * @param tableName 
         */  
        public static void createTable(String tableName) {  
            System.out.println("start create table ......");  
            try {  
                HBaseAdmin hBaseAdmin = new HBaseAdmin(configuration);  
                if (hBaseAdmin.tableExists(tableName)) {// 如果存在要创建的表,那么先删除,再创建  
                    hBaseAdmin.disableTable(tableName);  
                    hBaseAdmin.deleteTable(tableName);  
                    System.out.println(tableName + " is exist,detele....");  
                }  
                HTableDescriptor tableDescriptor = new HTableDescriptor(TableName.valueOf(tableName));  
                tableDescriptor.addFamily(new HColumnDescriptor("column1"));  
                tableDescriptor.addFamily(new HColumnDescriptor("column2"));  
                tableDescriptor.addFamily(new HColumnDescriptor("column3"));  
                hBaseAdmin.createTable(tableDescriptor); 
                
                hBaseAdmin.close();
            } catch (MasterNotRunningException e) {  
                e.printStackTrace();  
            } catch (ZooKeeperConnectionException e) {  
                e.printStackTrace();  
            } catch (IOException e) {  
                e.printStackTrace();  
            }  
            System.out.println("end create table ......");  
        }  
      
        /** 
         * 插入数据 
         * @param tableName 
         * @throws IOException 
         */  
        public static void insertData(String tableName) throws IOException {  
            System.out.println("start insert data ......");  
            Connection connection = ConnectionFactory.createConnection(configuration);
         Table table = connection.getTable(TableName.valueOf(tableName));  
            Put put = new Put("112233bbbcccc".getBytes());// 一个PUT代表一行数据,再NEW一个PUT表示第二行数据,每行一个唯一的ROWKEY,此处rowkey为put构造方法中传入的值  
            put.add("column1".getBytes(), null, "aaa".getBytes());// 本行数据的第一列  
            put.add("column2".getBytes(), null, "bbb".getBytes());// 本行数据的第三列  
            put.add("column3".getBytes(), null, "ccc".getBytes());// 本行数据的第三列  
            try {  
                table.put(put);  
            } catch (IOException e) {  
                e.printStackTrace();  
            }  
            System.out.println("end insert data ......");  
        }  
      
        /** 
         * 删除一张表 
         * @param tableName 
         */  
        public static void dropTable(String tableName) {  
            try {  
                HBaseAdmin admin = new HBaseAdmin(configuration);  
                admin.disableTable(tableName);  
                admin.deleteTable(tableName);  
            } catch (MasterNotRunningException e) {  
                e.printStackTrace();  
            } catch (ZooKeeperConnectionException e) {  
                e.printStackTrace();  
            } catch (IOException e) {  
                e.printStackTrace();  
            }  
      
        }  
        /** 
         * 根据 rowkey删除一条记录 
         * @param tablename 
         * @param rowkey 
         */  
         public static void deleteRow(String tablename, String rowkey)  {  
            try {  
                HTable table = new HTable(configuration, tablename);  
                List list = new ArrayList();  
                Delete d1 = new Delete(rowkey.getBytes());  
                list.add(d1);  
                  
                table.delete(list);  
                System.out.println("删除行成功!");  
                  
            } catch (IOException e) {  
                e.printStackTrace();  
            }  
              
      
        }  
      
         /** 
          * 组合条件删除 
          * @param tablename 
          * @param rowkey 
          */  
         public static void deleteByCondition(String tablename, String rowkey)  {  
                //目前还没有发现有效的API能够实现 根据非rowkey的条件删除 这个功能能,还有清空表全部数据的API操作  
      
        }  
      
      
        /** 
         * 查询所有数据 
         * @param tableName 
         * @throws IOException 
         */  
        public static void QueryAll(String tableName) throws IOException {   
         Connection connection = ConnectionFactory.createConnection(configuration);
         Table table = connection.getTable(TableName.valueOf(tableName));
            try {  
                ResultScanner rs = table.getScanner(new Scan());  
                for (Result r : rs) {  
                    System.out.println("获得到rowkey:" + new String(r.getRow()));  
                    for (KeyValue keyValue : r.raw()) {  
                        System.out.println("列:" + new String(keyValue.getFamily())  
                                + "====值:" + new String(keyValue.getValue()));  
                    }  
                }  
            } catch (IOException e) {  
                e.printStackTrace();  
            }  
        }  
      
        /** 
         * 单条件查询,根据rowkey查询唯一一条记录 
         * @param tableName 
         */  
        public static void QueryByCondition1(String tableName) {  
      
            HTablePool pool = new HTablePool(configuration, 1000);  
            HTable table = (HTable) pool.getTable(tableName);  
            try {  
                Get scan = new Get("abcdef".getBytes());// 根据rowkey查询  
                Result r = table.get(scan);  
                System.out.println("获得到rowkey:" + new String(r.getRow()));  
                for (KeyValue keyValue : r.raw()) {  
                    System.out.println("列:" + new String(keyValue.getFamily())  
                            + "====值:" + new String(keyValue.getValue()));  
                }  
            } catch (IOException e) {  
                e.printStackTrace();  
            }  
        }  
      
        /** 
         * 单条件按查询,查询多条记录 
         * @param tableName 
         */  
        public static void QueryByCondition2(String tableName) {  
      
            try {  
                HTablePool pool = new HTablePool(configuration, 1000);  
                HTable table = (HTable) pool.getTable(tableName);  
                Filter filter = new SingleColumnValueFilter(Bytes  
                        .toBytes("column1"), null, CompareOp.EQUAL, Bytes  
                        .toBytes("aaa")); // 当列column1的值为aaa时进行查询  
                Scan s = new Scan();  
                s.setFilter(filter);  
                ResultScanner rs = table.getScanner(s);  
                for (Result r : rs) {  
                    System.out.println("获得到rowkey:" + new String(r.getRow()));  
                    for (KeyValue keyValue : r.raw()) {  
                        System.out.println("列:" + new String(keyValue.getFamily())  
                                + "====值:" + new String(keyValue.getValue()));  
                    }  
                }  
            } catch (Exception e) {  
                e.printStackTrace();  
            }  
      
        }  
      
        /** 
         * 组合条件查询 
         * @param tableName 
         */  
        public static void QueryByCondition3(String tableName) {  
      
            try {  
                HTablePool pool = new HTablePool(configuration, 1000);  
                HTable table = (HTable) pool.getTable(tableName);  
      
                List<Filter> filters = new ArrayList<Filter>();  
      
                Filter filter1 = new SingleColumnValueFilter(Bytes  
                        .toBytes("column1"), null, CompareOp.EQUAL, Bytes  
                        .toBytes("aaa"));  
                filters.add(filter1);  
      
                Filter filter2 = new SingleColumnValueFilter(Bytes  
                        .toBytes("column2"), null, CompareOp.EQUAL, Bytes  
                        .toBytes("bbb"));  
                filters.add(filter2);  
      
                Filter filter3 = new SingleColumnValueFilter(Bytes  
                        .toBytes("column3"), null, CompareOp.EQUAL, Bytes  
                        .toBytes("ccc"));  
                filters.add(filter3);  
      
                FilterList filterList1 = new FilterList(filters);  
      
                Scan scan = new Scan();  
                scan.setFilter(filterList1);  
                ResultScanner rs = table.getScanner(scan);  
                for (Result r : rs) {  
                    System.out.println("获得到rowkey:" + new String(r.getRow()));  
                    for (KeyValue keyValue : r.raw()) {  
                        System.out.println("列:" + new String(keyValue.getFamily())  
                                + "====值:" + new String(keyValue.getValue()));  
                    }  
                }  
                rs.close();  
      
            } catch (Exception e) {  
                e.printStackTrace();  
            }  
      
        }  
        
    }

温馨提示:内容为网友见解,仅供参考
无其他回答

如何使用Java API操作Hbase
import org.apache.hadoop.hbase.HTableDescriptor;import org.apache.hadoop.hbase.KeyValue;import org.apache.hadoop.hbase.client.Delete;import org.apache.hadoop.hbase.client.Get;import org.apache.hadoop.hbase.client.HBaseAdmin;import org.apache.hadoop.hbase.client.HTable;...

如何使用Java API操作Hbase
import org.apache.hadoop.hbase.client.Put;import org.apache.hadoop.hbase.client.Result;import org.apache.hadoop.hbase.client.ResultScanner;import org.apache.hadoop.hbase.client.Scan;import org.apache.hadoop.hbase.client.Table;import org.apache.hadoop.hbase.filter.CompareFilter.CompareOp;...

如何使用Java API操作Hbase
import org.apache.hadoop.hbase.HBaseConfiguration;import org.apache.hadoop.hbase.HColumnDescriptor;import org.apache.hadoop.hbase.HTableDescriptor;import org.apache.hadoop.hbase.TableName;import org.apache.hadoop.hbase.client.Delete;import org.apache.hadoop.hbase.client.Get;import org.a...

如何生成任意个数的base数据?
使用Java API插入数据 可以使用Put 类的add()方法将数据插入到HBase。可以使用HTable类的put()方法保存。第1步:实例化配置类 Configuration类增加了 HBase 配置文件到它的对象。使用HbaseConfiguration类的create()方法,如下图所示的配置对象。第2步:实例化HTable类有一类名HTable,在HBase中实现了...

3.通过Java API,为表添加一个info列族关键代码怎么写?
要使用 Java API 在 Apache HBase 中添加名为表的列族,您可以使用 theclass 的方法。此方法将 a object 作为参数,该参数指定要创建的列系列的详细信息,例如其名称和配置设置。infocreateColumnFamilyAdminColumnFamilyDescriptor 下面是如何执行此操作的示例:在此代码中,我们首先从包中导入所需的类。

6、Base批量装载——Bulk load(示例一:基本使用示例)
通常,使用HBase的Java API的put方法或MapReduce编写代码来导入数据到HBase,这些方法基于HBase的原生API操作,需要频繁连接HBase,给存储和计算资源带来较大压力。在大量数据导入时,通过Bulk Load(大容量加载)方法更加高效。Bulk Load直接将数据写入HFile(HBase的数据格式),跳过与HBase的交互过程,...

HBase访问接口
Native Java API:这是最常见的高效方式,适用于与Hadoop MapReduce Job并行处理大批量HBase数据。 HBase Shell:作为命令行工具,适合于HBase的日常管理和操作。 Thrift Gateway:利用Thrift技术,支持C++、PHP、Python等多种语言,适合异构系统在线访问HBase。 REST Gateway:采用REST风格的Http API...

hbase使用标准的sql进行操作
相反,HBase使用其自带的API进行操作,包括Java API、REST API、Thrift API等。例如,Java API中的Put和Get类分别用于插入和读取数据。此外,HBase也支持使用HBase Shell进行交互式操作,这是一种命令行工具,可以执行各种HBase命令。虽然HBase本身不支持SQL,但是可以通过一些工具或框架(如Phoenix,Presto...

【博学谷学习记录】超强总结,用心分享|狂野大数据的HBase总结分析...
首先,我们从进入HBase控制台开始,通过简单的命令行操作,如status查看集群状态,list展示现有表,以及创建、添加、读取、修改和删除数据的基本步骤。接着,深入探讨高级shell操作,如过滤查询,例如查找特定rowkey或列名的特定模式,以及显示当前登录用户和判断表是否存在。Java API的使用也是关键,包括在pom....

操作hbase有哪些工具
工具指的是? 监控hbase的集群状态有Ganglia,调用hbase提供java调用的api可以访问hbase,在hbase之上进行操作的开源工具有sqoop(用于导入数据),hive和pig可以用来方便操作hbase进行数据统计功能

相似回答