大数据培训hive和mapreduce的区别
温馨提示:这篇文章已超过1005天没有更新,请注意相关的内容是否还可用!
1.hive本身只是在hadoop map reduce 或者spark 计算引擎上的封装,应用场景自然更局限,不可能满足所有需求。有些场景是不能用hive来实现,就需要map reduce或者spark rdd编程来实现。
2.结构复杂的日志文件,首先要经过ETL处理(使用mapreduce),得到的数据再有hive处理比较合适。直接让hive处理结构复杂的数据估计很难处理。
小结:业务比较复杂的,还是必须写mapreduce才能实现。
随着工作的数据内容越来越多,越来越复杂,对应的调整也越来越多,越来越复杂.纯使用MR方式整个流程就比较复杂,如果需要修改某个部分,那首先需要修改代码中的逻辑,然后把代码打包上传到某个可访问路径上(一般就是hdfs),然后在调度平台内执行.如果改动较大的情况,可能还会需要在测试环境中多次调试. 总之就是会花比较多的时间在非业务逻辑改动的工作上.
考虑到维护的成本的增大,慢慢的开始准备将MR的作业,逐渐的移植到一些脚本平台上去,hive成了我们的首选。
mr和hive比较
1. 运算资源消耗
无论从时间,数据量,计算量上来看,一般情况下mr都是优于或者等于hive的。mr的灵活性是毋庸置疑的。【关注尚硅谷,轻松学IT】在转换到hive的过程中,会有一些为了实现某些场景的需求而不得不用多步hive来实现的时候。
2. 开发成本/维护成本
毫无疑问,hive的开发成本是远低于mr的。如果能熟练的运用udf和transform会更加提高hvie开发的效率。另外对于数据的操作也非常的直观,对于全世界程序员都喜闻乐见的sql语法的继承也让它更加的容易上手。
hive独有的分区管理,方便进行数据的管理。
代码的管理也很方便,就是直接的文本。
逻辑的修改和生效很方便。
但是当出现异常错误的时候,hive的调试会比较麻烦。特别是在大的生产集群上面的时候www.atguigu.com。
3. 底层相关性
在使用hive以后,读取文件的时候,再也不用关心文件的格式,文件的分隔符,只要指定一次,hive就会保存好。相比mr来说方便了很多。
当侧重关心与业务相关的内容的时候,用hive会比较有优势。而在一些性能要求高,算法研究的时候,mr会更加适合。
文章来源于全栈工程师的自我修养
推荐阅读:
大数据培训:HiveSQL技术优化与面试
大数据开发之Hive应用分析
大数据开发之Hive解析Json数组
九七分享吧所有文章来源于网络收集整理,如有侵权请联系QQ2387153712删除,如果这篇文章对你有帮助或者还不错的请给小编点个小赞(◠‿◠),小编每天整理文章不容易(ಥ_ಥ)!!!
还没有评论,来说两句吧...