龙小白是绝品神医小说李闲鱼吗?

小白龙出水战法
相关股票:
1、当时属于底部庄吸筹阶段,庄经过一段时间的吸筹是不会叫很多的钱打水漂的,必然有一个拉升的过程,这就需要我们把握这个机会提前买入,前期经过快速下跌,随后出现强势拉升。2、有强大的资金进入。前期有资金的大量参与,后期新主力介入的助力。股票必须涨。3、量价关系分析,量在价先。必须有很好的量价关系的配合,量不能太大,太大有出货的嫌疑。量也不能太小,太小绝对是散户行为。要求必须温和放量。4、技术指标上属于强势回调,短线获利的个股应该选择技术指标强势回调的个股,这样可以降低成本。遇到大盘拉升它必然会强势这就给我们提供了机会。5、炒作热点,创业板盘子小,资金青睐这样的个股,因此选中了创业板。希望后期可以带给大家更多的惊喜。多多关注直播间。
【风险提示:以上内容仅代表个人观点,不构成投资建议,股市有风险,投资需谨慎!】
请文明发言,理性评论,禁止发布违法和人身攻击言论
本人长期专注股市研究,拥有自己独特的选股技术和操盘理念。长短...龙小白,你等着_百度百科
声明:百科词条人人可编辑,词条创建和修改均免费,绝不存在官方及代理商付费代编,请勿上当受骗。
龙小白,你等着
《龙小白,你等着》是百度文学旗下纵横中文网签约作家Q流年Q创作的一部武侠仙侠小说,小说已于正式发布。
三太子冷笑:你是龙,不是蛇,更不是人,你到底明不明白?小和尚瞪眼:你是蛇,也是人,就不是龙,你到底听没听到?师父摸摸头:珑儿,脑子用多了会疼的。龙小白迷茫:我是……我是……这个问题很重要吗??所以,这是一只小白龙从蛇到龙的故事;所以,这是某个龙小白上天入地的故事;所以,这是变成龙的小白蛇最终幸福美满的故事。
.[引用日期]龙小白LX的贴吧
该用户已隐藏个人动态6503人阅读
在hive学习中,通过java调用hive的jdbc驱动来查询数据。
声明:当前基于hive1.2.1版本进行的学习和测试。
首先环境中有部署hive,并且存在。
Java工程需要配置以及代码编写:
1、需要用到的依赖jar包:用的maven项目
& & & & & &!-- hive start --&
& & & & &&&!-- hive 1.2.1 --&
& & & & &&&dependency&
& & & & & &&
&groupId&org.apache.hive&/groupId&
& & & & & &&
&artifactId&hive-jdbc&/artifactId&
& & & & & &&
&version&${hive.version}&/version&
&/dependency&
& & & & &&&!-- hadoop 2.6.0 --&
&dependency&
& & & & & &&
&groupId&org.apache.hadoop&/groupId&
& & & & & &&
&artifactId&hadoop-common&/artifactId&
& & & & & & &&version&${hadoop.version}&/version&
&/dependency&
&!-- hive end --&
2、集群环境启动hive的server,在hive1.2.1版本以后需要使用 &hiveserver2来启动,具体可以参考官方文档,并且可以查看${HIVE_HOME}/bin目录下是有hiverserver2存在的。
& & &可以通过命令启动:
& & &hive --service hiveserver2 --hiveconf hive.server2.thrift.port=11111 & 设置端口号,默认端口号为10000
& & &也可以通过hiveserver2 直接启动,这时端口号为默认10000
3、java代码的编写
& & &首先编写一个service类,以连接hive的jdbc(其实是一个jdbcUtil)
java.sql.C
java.sql.DriverM
java.sql.SQLE
java.sql.S
org.apache.log4j.L
HiveService {
&&&&&&&static
= Logger.getLogger(HiveService.class);
&&&&&&&//hive的jdbc驱动类
&&&&&&&public
dirverName
&org.apache.hive.jdbc.HiveDriver&;&
&&&&&&&//连接hive的URL
hive1.2.1版本需要的是jdbc:hive2,而不是 jdbc:hive&
&&&&&&&public
&jdbc:hive2://192.168.10.100:11111/default&;
&&&&&&&//登录linux的用户名&
一般会给权限大一点的用户,否则无法进行事务形操作
&&&&&&&public
&&&&&&&//登录linux的密码
&&&&&&&public
&&&&&&&/**
&&&&&&& * 创建连接
SQLException
&&&&&&& */
&&&&&&&public
Connection getConn(){
&&&&&&&&&&&&&&Connection
&&&&&&&&&&&&&&try
&&&&&&&&&&&&&&&&&&&&&Class.forName(dirverName);
&&&&&&&&&&&&&&&&&&&&&conn
= DriverManager.getConnection(url,
&&&&&&&&&&&&&&}
(ClassNotFoundException
&&&&&&&&&&&&&&&&&&&&&//
Auto-generated catch block
&&&&&&&&&&&&&&&&&&&&&e.printStackTrace();
&&&&&&&&&&&&&&}
(SQLException
&&&&&&&&&&&&&&&&&&&&&//
Auto-generated catch block
&&&&&&&&&&&&&&&&&&&&&e.printStackTrace();
&&&&&&&&&&&&&&}
&&&&&&&&&&&&&&return
&&&&&&&/**
&&&&&&& * 创建命令
SQLException
&&&&&&& */
&&&&&&&public
Statement getStmt(Connection
SQLException{
&&&&&&&&&&&&&&logger.debug(conn);
&&&&&&&&&&&&&&if(conn
&&&&&&&&&&&&&&&&&&&&&logger.debug(&this
conn is null&);
&&&&&&&&&&&&&&}
&&&&&&&&&&&&&&return
conn.createStatement();
&&&&&&&/**
&&&&&&& * 关闭连接
&&&&&&& */
&&&&&&&public
closeConn(Connection
&&&&&&&&&&&&&&try
&&&&&&&&&&&&&&&&&&&&&conn.close();
&&&&&&&&&&&&&&}
(SQLException
&&&&&&&&&&&&&&&&&&&&&//
Auto-generated catch block
&&&&&&&&&&&&&&&&&&&&&e.printStackTrace();
&&&&&&&&&&&&&&}
&&&&&&&/**
&&&&&&& * 关闭命令
&&&&&&& */
&&&&&&&public
closeStmt(Statement
&&&&&&&&&&&&&&try
&&&&&&&&&&&&&&&&&&&&&stmt.close();
&&&&&&&&&&&&&&}
(SQLException
&&&&&&&&&&&&&&&&&&&&&//
Auto-generated catch block
&&&&&&&&&&&&&&&&&&&&&e.printStackTrace();
&&&&&&&&&&&&&&}
& &再编写一个测试类:
java.sql.C
java.sql.ResultS
java.sql.ResultSetMetaD
java.sql.SQLE
java.sql.S
org.apache.log4j.L
HiveTestOne {
&&&&&&&static
= Logger.getLogger(HiveTestOne.class);
&&&&&&&public
main(String[]
&&&&&&&&&&&&&&
&&&&&&&&&&&&&&Connection
= HiveService.getConn();
&&&&&&&&&&&&&&Statement
&&&&&&&&&&&&&&try
&&&&&&&&&&&&&&&&&&&&&stmt
= HiveService.getStmt(conn);
&&&&&&&&&&&&&&}
(SQLException
&&&&&&&&&&&&&&&&&&&&&logger.debug(&1&);
&&&&&&&&&&&&&&}
&&&&&&&&&&&&&&
&&&&&&&&&&&&&&String
&select * from test&;
&&&&&&&&&&&&&&
&&&&&&&&&&&&&&ResultSet
&&&&&&&&&&&&&&try
&&&&&&&&&&&&&&&&&&&&&res
stmt.executeQuery(sql);
&&&&&&&&&&&&&&&&&&&&&
&&&&&&&&&&&&&&&&&&&&&ResultSetMetaData
res.getMetaData();
&&&&&&&&&&&&&&&&&&&&&
&&&&&&&&&&&&&&&&&&&&&for(int
meta.getColumnCount();
i++){
&&&&&&&&&&&&&&&&&&&&&&&&&&&System.out.print(meta.getColumnName(i)
&&&&&&&&&&&&&&&&&&&&&}
&&&&&&&&&&&&&&&&&&&&&System.out.println();
&&&&&&&&&&&&&&&&&&&&&while(res.next()){
&&&&&&&&&&&&&&&&&&&&&&&&&&&System.out.print(res.getString(1)
&&&&&&&&&&&&&&&&&&&&&&&&&&&System.out.print(res.getString(2)
&&&&&&&&&&&&&&&&&&&&&&&&&&&System.out.println();
&&&&&&&&&&&&&&&&&&&&&}
&&&&&&&&&&&&&&}
(SQLException
&&&&&&&&&&&&&&&&&&&&&e.printStackTrace();
&&&&&&&&&&&&&&}
&&&&&&&&&&&&&&
&&&&&&&&&&&&&&try
&&&&&&&&&&&&&&&&&&&&&stmt.execute(&insert
into test1(id, name) values(222,'yang')&);//需要拥有hdfs文件读写权限的用户才可以进行此操作
&&&&&&&&&&&&&&&&&&&&&logger.debug(&create
is susscess&);
&&&&&&&&&&&&&&&&&&&&&
&&&&&&&&&&&&&&}
(SQLException
&&&&&&&&&&&&&&&&&&&&&//
Auto-generated catch block
&&&&&&&&&&&&&&&&&&&&&e.printStackTrace();
&&&&&&&&&&&&&&}
&&&&&&&&&&&&&&HiveService.closeStmt(stmt);
&&&&&&&&&&&&&&HiveService.closeConn(conn);
遇到的问题:
1、 .lang.ClassNotFoundException: org.apache..hive.jdbc.HiveDriver
& & &突然发现多写了一个Hadoop,这个路径写错了,Hadoop是多余的,应该是 org.apache.hive.jdbc.HiveDriver
2、 java.sql.SQLException: No suitable driver found for jdbc:hive://192.168.10.100:11111/default
& & &这是由于我使用的是hive1.2.1版本,到此版本后URL地址应该写成 jdbc:hive2://192.168.10.100:11111/default
3、 java.sql.SQLException: Could not open client transport with JDBC Uri: jdbc:hive2://192.168.10.100:11111/default: java.ConnectException:
Connection refused
& & & 这是由于远程hive集群没有启动hiveserver2导致的。
4、出现异常java.sql.SQLException: Error while processing statement:
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.mr.MapRedTask
& &到hive后台查看日志
& &Caused by: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.AccessControlException): Permission denied: user=hive, access=EXECUTE, inode=&/tmp&:root:supergroup:drwxrwx---
& && 权限问题,所以切换一下用户试一下,在我的代码
//hive的jdbc驱动类
dirverName
&org.apache.hive.jdbc.HiveDriver&;&
//连接hive的URL hive1.2.1版本需要的是jdbc:hive2,而不是 jdbc:hive&
&jdbc:hive2://192.168.10.100:10000/default&;
//登录linux的用户名& 一般会给权限大一点的用户,否则无法进行事务形操作
//登录linux的密码
& & &我使用的是hive用户登录,在我的集群中hdfs的文件其他用户没有写的权限,只有读的权限,所以我将
& & & & &//登录linux的用户名& 一般会给权限大一点的用户,否则无法进行事务形操作
//登录linux的密码
& & & 切换为我的管理员root用户,这样就可以执行create和insert语句了。
&&相关文章推荐
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:7068次
排名:千里之外
(window.slotbydup = window.slotbydup || []).push({
id: '4740881',
container: s,
size: '200,200',
display: 'inlay-fix'}

我要回帖

更多关于 李闲鱼 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信