hadoop中實現(xiàn)java網(wǎng)絡(luò)爬蟲(示例講解)
這一篇網(wǎng)絡(luò)爬蟲的實現(xiàn)就要聯(lián)系上大數(shù)據(jù)了。在前兩篇java實現(xiàn)網(wǎng)絡(luò)爬蟲和heritrix實現(xiàn)網(wǎng)絡(luò)爬蟲的基礎(chǔ)上,這一次是要完整的做一次數(shù)據(jù)的收集、數(shù)據(jù)上傳、數(shù)據(jù)分析、數(shù)據(jù)結(jié)果讀取、數(shù)據(jù)可視化。
需要用到
Cygwin:一個在windows平臺上運行的類UNIX模擬環(huán)境,直接網(wǎng)上搜索下載,并且安裝;
Hadoop:配置Hadoop環(huán)境,實現(xiàn)了一個分布式文件系統(tǒng)(Hadoop Distributed File System),簡稱HDFS,用來將收集的數(shù)據(jù)直接上傳保存到HDFS,然后用MapReduce分析;
Eclipse:編寫代碼,需要導(dǎo)入hadoop的jar包,以可以創(chuàng)建MapReduce項目;
Jsoup:html的解析jar包,結(jié)合正則表達(dá)式能更好的解析網(wǎng)頁源碼;
----->
目錄:
1、配置Cygwin
2、配置Hadoop黃靜
3、Eclipse開發(fā)環(huán)境搭建
4、網(wǎng)絡(luò)數(shù)據(jù)爬?。╦soup)
-------->
1、安裝配置Cygwin
從官方網(wǎng)站下載Cygwin 安裝文件,地址:https://cygwin.com/install.html
下載運行后進(jìn)入安裝界面。
安裝時直接從網(wǎng)絡(luò)鏡像中下載擴(kuò)展包,至少需要選擇ssh和ssl支持包
安裝后進(jìn)入cygwin控制臺界面,
運行ssh-host-config命令,安裝SSH
輸入:no,yes,ntsec,no,no
注意:win7下需要改為yes,yes,ntsec,no,yes,輸入密碼并確認(rèn)這個步驟
完成后會在windows操作系統(tǒng)中配置好一個Cygwin sshd服務(wù),啟動該服務(wù)即可。

然后要配置ssh免密碼登陸
重新運行cygwin。
執(zhí)行ssh localhost,會要求使用密碼進(jìn)行登陸。
使用ssh-keygen命令來生成一個ssh密鑰,一直回車結(jié)束即可。
生成后進(jìn)入.ssh目錄,使用命令:cp id_rsa.pub authorized_keys 命令來配置密鑰。
之后使用exit退出即可。
重新進(jìn)入系統(tǒng)后,通過ssh localhost就可以直接進(jìn)入系統(tǒng),不需要再輸入密碼了。
2、配置Hadoop環(huán)境
修改hadoop-env.sh文件,加入JDK安裝目錄的JAVA_HOME位置設(shè)置。
# The java implementation to use. Required. export JAVA_HOME=/cygdrive/c/Java/jdk1.7.0_67
如圖注意:Program Files縮寫為PROGRA~1
![]()
修改hdfs-site.xml,設(shè)置存放副本為1(因為配置的是偽分布式方式)
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration>
注意:此圖片多加了一個property,內(nèi)容就是解決可能出現(xiàn)的權(quán)限問題!??!
HDFS:Hadoop 分布式文件系統(tǒng)
可以在HDFS中通過命令動態(tài)對文件或文件夾進(jìn)行CRUD
注意有可能出現(xiàn)權(quán)限的問題,需要通過在hdfs-site.xml中配置以下內(nèi)容來避免:
<property> <name>dfs.permissions</name> <value>false</value> </property>

修改mapred-site.xml,設(shè)置JobTracker運行的服務(wù)器與端口號(由于當(dāng)前就是運行在本機上,直接寫localhost 即可,端口可以綁定任意空閑端口)
<configuration> <property> <name>mapred.job.tracker</name> <value>localhost:9001</value> </property> </configuration>
配置core-site.xml,配置HDFS文件系統(tǒng)所對應(yīng)的服務(wù)器與端口號(同樣就在當(dāng)前主機)
<configuration> <property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property> </configuration>
配置好以上內(nèi)容后,在Cygwin中進(jìn)入hadoop目錄

在bin目錄下,對HDFS文件系統(tǒng)進(jìn)行格式化(第一次使用前必須格式化),然后輸入啟動命令:


3、Eclipse開發(fā)環(huán)境搭建
這個在我寫的博客 大數(shù)據(jù)【二】HDFS部署及文件讀寫(包含eclipse hadoop配置)中給出大致配置方法。不過此時需要完善一下。
將hadoop中的hadoop-eclipse-plugin.jar支持包拷貝到eclipse的plugin目錄下,為eclipse添加Hadoop支持。
啟動Eclipse后,切換到MapReduce界面。
在windows工具選項選擇showviews的others里面查找map/reduce locations。
在Map/Reduce Locations窗口中建立一個Hadoop Location,以便與Hadoop進(jìn)行關(guān)聯(lián)。



注意:此處的兩個端口應(yīng)為你配置hadoop的時候設(shè)置的端口?。?!
完成后會建立好一個Hadoop Location

在左側(cè)的DFS Location中,還可以看到HDFS中的各個目錄

并且你可以在其目錄下自由創(chuàng)建文件夾來存取數(shù)據(jù)。
下面你就可以創(chuàng)建mapreduce項目了,方法同正常創(chuàng)建一樣。
4、網(wǎng)絡(luò)數(shù)據(jù)爬取
現(xiàn)在我們通過編寫一段程序,來將爬取的新聞內(nèi)容的有效信息保存到HDFS中。
此時就有了兩種網(wǎng)絡(luò)爬蟲的方法:
其一就是利用heritrix工具獲取的數(shù)據(jù);
其一就是java代碼結(jié)合jsoup編寫的網(wǎng)絡(luò)爬蟲。
方法一的信息保存到HDFS:
直接讀取生成的本地文件,用jsoup解析html,此時需要將jsoup的jar包導(dǎo)入到項目中。
package org.liky.sina.save;
//這里用到了JSoup開發(fā)包,該包可以很簡單的提取到HTML中的有效信息
import java.io.File;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;
public class SinaNewsData {
private static Configuration conf = new Configuration();
private static FileSystem fs;
private static Path path;
private static int count = 0;
public static void main(String[] args) {
parseAllFile(new File(
"E:/heritrix-1.12.1/jobs/sina_news_job_02-20170814013255352/mirror/"));
}
public static void parseAllFile(File file) {
// 判斷類型
if (file.isDirectory()) {
// 文件夾
File[] allFile = file.listFiles();
if (allFile != null) {
for (File f : allFile) {
parseAllFile(f);
}
}
} else {
// 文件
if (file.getName().endsWith(".html")
|| file.getName().endsWith(".shtml")) {
parseContent(file.getAbsolutePath());
}
}
}
public static void parseContent(String filePath) {
try {
//用jsoup的方法讀取文件路徑
Document doc = Jsoup.parse(new File(filePath), "utf-8");
//讀取標(biāo)題
String title = doc.title();
Elements descElem = doc.getElementsByAttributeValue("name",
"description");
Element descE = descElem.first();
// 讀取內(nèi)容
String content = descE.attr("content");
if (title != null && content != null) {
//通過Path來保存數(shù)據(jù)到HDFS中
path = new Path("hdfs://localhost:9000/input/"
+ System.currentTimeMillis() + ".txt");
fs = path.getFileSystem(conf);
// 建立輸出流對象
FSDataOutputStream os = fs.create(path);
// 使用os完成輸出
os.writeChars(title + "\r\n" + content);
os.close();
count++;
System.out.println("已經(jīng)完成" + count + " 個!");
}
} catch (Exception e) {
e.printStackTrace();
}
}
}
以上這篇hadoop中實現(xiàn)java網(wǎng)絡(luò)爬蟲(示例講解)就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
- java結(jié)合HADOOP集群文件上傳下載
- Java訪問Hadoop分布式文件系統(tǒng)HDFS的配置說明
- java使用hadoop實現(xiàn)關(guān)聯(lián)商品統(tǒng)計
- Java執(zhí)行hadoop的基本操作實例代碼
- 深入淺析Java Object Serialization與 Hadoop 序列化
- Java/Web調(diào)用Hadoop進(jìn)行MapReduce示例代碼
- Hadoop運行時遇到j(luò)ava.io.FileNotFoundException錯誤的解決方法
- hadoop運行java程序(jar包)并運行時動態(tài)指定參數(shù)
- java實現(xiàn)對Hadoop的操作
- 利用Java連接Hadoop進(jìn)行編程
相關(guān)文章
mybatis 有時update語句執(zhí)行無效的解決方案
這篇文章主要介紹了在項目里mybatis有時update語句執(zhí)行無效的解決方案,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教2021-11-11
解決RestTemplate 請求url中包含百分號 會被轉(zhuǎn)義成25的問題
這篇文章主要介紹了解決RestTemplate 請求url中包含百分號 會被轉(zhuǎn)義成25的問題,具有很好的參考價值,希望對大家有所幫助。2021-10-10
commons fileupload實現(xiàn)文件上傳的實例代碼
這篇文章主要介紹了commons fileupload實現(xiàn)文件上傳的實例代碼,包括文件上傳的原理分析等相關(guān)知識點,本文給大家介紹的非常詳細(xì),具有參考借鑒價值,感興趣的朋友一起看看吧2016-10-10
Java實現(xiàn)時間片輪轉(zhuǎn)調(diào)度算法的示例代碼
時間片輪轉(zhuǎn)調(diào)度是一種最古老,最簡單,最公平且使用最廣的算法,這篇文章主要為大家介紹了如何利用Java實現(xiàn)這一算法,需要的可以參考一下2023-07-07

