如何高效利用Hadoop进行大数据处理与分析?
- 内容介绍
- 文章标签
- 相关推荐
本文共计917个文字,预计阅读时间需要4分钟。
章节一:语篇编程笔记
一、概述本文档旨在记录编程过程中遇到的问题、解决方案和学习心得,以供日后参考。
二、编程环境
1.编程语言:Python
2.集成开发环境:PyCharm
三、编程技巧
1.代码规范:遵循PEP 8规范,保持代码整洁易读。
2.代码注释:对关键代码进行注释,提高代码可读性。
3.数据结构:熟练掌握常用数据结构,如列表、字典、集合等。
4.控制流程:掌握条件语句、循环语句等控制流程,实现复杂逻辑。
四、编程实例
1.实例一:计算两个数的和
pythondef add_numbers(a, b): return a + bresult=add_numbers(3, 5)print(result)
2. 实例二:判断一个数是否为素数pythondef is_prime(num): if num <=1: return False for i in range(2, int(num ** 0.5) + 1): if num % i==0: return False return True
num=29if is_prime(num): print(f{num} 是素数)else: print(f{num} 不是素数)
五、总结通过本文档的记录,我们可以更好地总结编程经验,提高编程水平。在今后的学习中,不断积累和总结,逐步提高自己的编程能力。
篇首语:本文由编程笔记#自由互联小编为大家整理,主要介绍了Hadoop的简单使用相关的知识,希望对你有一定的参考价值。H篇首语:本文由编程笔记#自由互联小编为大家整理,主要介绍了Hadoop的简单使用相关的知识,希望对你有一定的参考价值。
Hadoop的简单使用./hadoop fs -put temp.txt hdfs://localhost:8888/
说明:
检测是否成功上传:
localhost:50070
然后点击browse the filesystem
可以看到:
一个简单的MapReduce任务任务说明: 使用Hadoop自动的一个案例,来统计多个文件的的各个单词出现的次数。
步骤如下:
2.1先创建一个目录
./hadoop fs -mkdir /task1
./hadoop fs -put /home/hsp/test/*.* /task1
./bin/hadoop jar hadoop-examples-1.0.3.jar wordcount /task1 /result1
说明:这个指令一定要在 hadoop的bin目录下执行,因为 hadoop-examples-1.0.3.jar 是在hadoop/bin 目录下的.
结果:
localhost:50030 , [这个就是MapReduce的管理界面]可以看到MapReduce 任务的完成情况
点击job_201506...可以看到详细情况,如下:
说明: 这个任务被Map了11个,有一个reduce操作。
localhost:50070 ,点击 part-r-00000 ,就可以看到结果
both 是5次,我们在ubuntu 直接统计一下
grep both /home/hsp/test/*.* 可以看到一个5个
grep both /home/hsp/test/*.*|wc 也可以直接得到结果.
本文共计917个文字,预计阅读时间需要4分钟。
章节一:语篇编程笔记
一、概述本文档旨在记录编程过程中遇到的问题、解决方案和学习心得,以供日后参考。
二、编程环境
1.编程语言:Python
2.集成开发环境:PyCharm
三、编程技巧
1.代码规范:遵循PEP 8规范,保持代码整洁易读。
2.代码注释:对关键代码进行注释,提高代码可读性。
3.数据结构:熟练掌握常用数据结构,如列表、字典、集合等。
4.控制流程:掌握条件语句、循环语句等控制流程,实现复杂逻辑。
四、编程实例
1.实例一:计算两个数的和
pythondef add_numbers(a, b): return a + bresult=add_numbers(3, 5)print(result)
2. 实例二:判断一个数是否为素数pythondef is_prime(num): if num <=1: return False for i in range(2, int(num ** 0.5) + 1): if num % i==0: return False return True
num=29if is_prime(num): print(f{num} 是素数)else: print(f{num} 不是素数)
五、总结通过本文档的记录,我们可以更好地总结编程经验,提高编程水平。在今后的学习中,不断积累和总结,逐步提高自己的编程能力。
篇首语:本文由编程笔记#自由互联小编为大家整理,主要介绍了Hadoop的简单使用相关的知识,希望对你有一定的参考价值。H篇首语:本文由编程笔记#自由互联小编为大家整理,主要介绍了Hadoop的简单使用相关的知识,希望对你有一定的参考价值。
Hadoop的简单使用./hadoop fs -put temp.txt hdfs://localhost:8888/
说明:
检测是否成功上传:
localhost:50070
然后点击browse the filesystem
可以看到:
一个简单的MapReduce任务任务说明: 使用Hadoop自动的一个案例,来统计多个文件的的各个单词出现的次数。
步骤如下:
2.1先创建一个目录
./hadoop fs -mkdir /task1
./hadoop fs -put /home/hsp/test/*.* /task1
./bin/hadoop jar hadoop-examples-1.0.3.jar wordcount /task1 /result1
说明:这个指令一定要在 hadoop的bin目录下执行,因为 hadoop-examples-1.0.3.jar 是在hadoop/bin 目录下的.
结果:
localhost:50030 , [这个就是MapReduce的管理界面]可以看到MapReduce 任务的完成情况
点击job_201506...可以看到详细情况,如下:
说明: 这个任务被Map了11个,有一个reduce操作。
localhost:50070 ,点击 part-r-00000 ,就可以看到结果
both 是5次,我们在ubuntu 直接统计一下
grep both /home/hsp/test/*.* 可以看到一个5个
grep both /home/hsp/test/*.*|wc 也可以直接得到结果.

