亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

Scrapy中如何向Spider傳入?yún)?shù)的方法實現(xiàn)

 更新時間:2020年09月28日 10:30:31   作者:pengjunlee  
這篇文章主要介紹了Scrapy中如何向Spider傳入?yún)?shù)的方法實現(xiàn),文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧

在使用Scrapy爬取數(shù)據(jù)時,有時會碰到需要根據(jù)傳遞給Spider的參數(shù)來決定爬取哪些Url或者爬取哪些頁的情況。

例如,百度貼吧的放置奇兵吧的地址如下,其中 kw參數(shù)用來指定貼吧名稱、pn參數(shù)用來對帖子進行翻頁。

https://tieba.baidu.com/f?kw=放置奇兵&ie=utf-8&pn=250

如果我們希望通過參數(shù)傳遞的方式將貼吧名稱和頁數(shù)等參數(shù)傳給Spider,來控制我們要爬取哪一個貼吧、爬取哪些頁。遇到這種情況,有以下兩種方法向Spider傳遞參數(shù)。

方式一

通過 scrapy crawl 命令的 -a 參數(shù)向 spider 傳遞參數(shù)。

# -*- coding: utf-8 -*-
import scrapy

class TiebaSpider(scrapy.Spider):
  name = 'tieba' # 貼吧爬蟲
  allowed_domains = ['tieba.baidu.com'] # 允許爬取的范圍
  start_urls = [] # 爬蟲起始地址

  # 命令格式: scrapy crawl tieba -a tiebaName=放置奇兵 -a pn=250
  def __init__(self, tiebaName=None, pn=None, *args, **kwargs):
    print('< 貼吧名稱 >: ' + tiebaName)
    super(eval(self.__class__.__name__), self).__init__(*args, **kwargs)
    self.start_urls = ['https://tieba.baidu.com/f?kw=%s&ie=utf-8&pn=%s' % (tiebaName,pn)]

  def parse(self, response):
    print(response.request.url) # 結果:https://tieba.baidu.com/f?kw=%E6%94%BE%E7%BD%AE%E5%A5%87%E5%85%B5&ie=utf-8&pn=250

方式二

仿照 scrapy 的 crawl 命令的源代碼,重新自定義一個專用命令。

settings.py

首先,需要在settings.py文件中增加如下配置來指定自定義 scrapy 命令的存放目錄。

# 指定 Scrapy 命令存放目錄
COMMANDS_MODULE = 'baidu_tieba.commands'

run.py

在指定的命令存放目錄中創(chuàng)建命令文件,在這里我們創(chuàng)建的命令文件為 run.py ,將來執(zhí)行的命令格式為:
scrapy run [ -option option_value] 。

import scrapy.commands.crawl as crawl
from scrapy.exceptions import UsageError
from scrapy.commands import ScrapyCommand


class Command(crawl.Command):

  def add_options(self, parser):
    # 為命令添加選項
    ScrapyCommand.add_options(self, parser)
    parser.add_option("-k", "--keyword", type="str", dest="keyword", default="",
             help="set the tieba's name you want to crawl")
    parser.add_option("-p", "--pageNum", type="int", action="store", dest="pageNum", default=0,
             help="set the page number you want to crawl")

  def process_options(self, args, opts):
    # 處理從命令行中傳入的選項參數(shù)
    ScrapyCommand.process_options(self, args, opts)
    if opts.keyword:
      tiebaName = opts.keyword.strip()
      if tiebaName != '':
        self.settings.set('TIEBA_NAME', tiebaName, priority='cmdline')
    else:
      raise UsageError("U must specify the tieba's name to crawl,use -kw TIEBA_NAME!")
    self.settings.set('PAGE_NUM', opts.pageNum, priority='cmdline')

  def run(self, args, opts):
    # 啟動爬蟲
    self.crawler_process.crawl('tieba')
    self.crawler_process.start()

pipelines.py

在BaiduTiebaPipeline的open_spider()方法中利用 run 命令傳入的參數(shù)對TiebaSpider進行初始化,在這里示例設置了一下start_urls。

# -*- coding: utf-8 -*-
import json

class BaiduTiebaPipeline(object):

  @classmethod
  def from_settings(cls, settings):
    return cls(settings)

  def __init__(self, settings):
    self.settings = settings

  def open_spider(self, spider):
    # 開啟爬蟲
    spider.start_urls = [
      'https://tieba.baidu.com/f?kw=%s&ie=utf-8&pn=%s' % (self.settings['TIEBA_NAME'], self.settings['PAGE_NUM'])]

  def close_spider(self, spider):
    # 關閉爬蟲
    pass

  def process_item(self, item, spider):
    # 將帖子內(nèi)容保存到文件
    with open('tieba.txt', 'a', encoding='utf-8') as f:
      json.dump(dict(item), f, ensure_ascii=False, indent=2)
    return item

設置完成后,別忘了在settings.py中啟用BaiduTiebaPipeline。 

ITEM_PIPELINES = {
  'baidu_tieba.pipelines.BaiduTiebaPipeline': 50,
}

啟動示例

大功告成,參照如下命令格式啟動貼吧爬蟲。 

scrapy run -k 放置奇兵 -p 250

參考文章:

https://blog.csdn.net/c0411034/article/details/81750028 

https://blog.csdn.net/qq_24760381/article/details/80361400 

https://blog.csdn.net/qq_38282706/article/details/80991196 

到此這篇關于Scrapy中如何向Spider傳入?yún)?shù)的方法實現(xiàn)的文章就介紹到這了,更多相關Scrapy Spider傳入?yún)?shù)內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!

相關文章

  • Python+OpenCV圖像處理—— 色彩空間轉(zhuǎn)換

    Python+OpenCV圖像處理—— 色彩空間轉(zhuǎn)換

    這篇文章主要介紹了Python+OpenCV如何對圖片進行色彩空間轉(zhuǎn)換,幫助大家更好的利用python處理圖片,感興趣的朋友可以了解下下
    2020-10-10
  • python操作 hbase 數(shù)據(jù)的方法

    python操作 hbase 數(shù)據(jù)的方法

    下面小編就為大家?guī)硪黄猵ython操作 hbase 數(shù)據(jù)的方法。小編覺得挺不錯的,現(xiàn)在就分享給大家,也給大家做個參考。一起跟隨小編過來看看吧
    2016-12-12
  • 應用OpenCV和Python進行SIFT算法的實現(xiàn)詳解

    應用OpenCV和Python進行SIFT算法的實現(xiàn)詳解

    這篇文章主要介紹了應用OpenCV和Python進行SIFT算法的實現(xiàn)詳解,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2019-08-08
  • Python 使用SFTP和FTP實現(xiàn)對服務器的文件下載功能

    Python 使用SFTP和FTP實現(xiàn)對服務器的文件下載功能

    這篇文章主要介紹了Python 使用SFTP和FTP實現(xiàn)對服務器的文件下載功能,本文通過實例代碼給大家介紹的非常想詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2020-12-12
  • Python多進程入門、分布式進程數(shù)據(jù)共享實例詳解

    Python多進程入門、分布式進程數(shù)據(jù)共享實例詳解

    這篇文章主要介紹了Python多進程入門、分布式進程數(shù)據(jù)共享,結合實例形式詳細分析了Python進程操作技巧數(shù)據(jù)共享相關實現(xiàn)技巧與注意事項,需要的朋友可以參考下
    2019-06-06
  • Python運行第一個PySide2的窗體程序

    Python運行第一個PySide2的窗體程序

    本文主要介紹了Python運行第一個PySide2的窗體程序,文中通過示例代碼介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們可以參考一下
    2021-07-07
  • python基于turtle繪制幾何圖形

    python基于turtle繪制幾何圖形

    turtle又稱為海龜繪圖,是Wally Feurzeig, Seymour Papert 和 Cynthia Solomon 于 1967 年所創(chuàng)造的 Logo 編程語言的python實現(xiàn)。turtle是基于tkinter圖形界面設計的。
    2021-06-06
  • pandas is in和not in的使用說明

    pandas is in和not in的使用說明

    這篇文章主要介紹了pandas is in和not in的使用說明,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2021-03-03
  • python定時任務apscheduler的詳細使用教程

    python定時任務apscheduler的詳細使用教程

    APScheduler的全稱是Advanced?Python?Scheduler,它是一個輕量級的?Python定時任務調(diào)度框架,下面這篇文章主要給大家介紹了關于python定時任務apscheduler的詳細使用教程,需要的朋友可以參考下
    2022-02-02
  • 用Python監(jiān)控你的朋友都在瀏覽哪些網(wǎng)站?

    用Python監(jiān)控你的朋友都在瀏覽哪些網(wǎng)站?

    今天教各位小伙伴一個黑科技,用Python監(jiān)控你的朋友都在瀏覽哪些網(wǎng)站,文中有非常詳細的介紹,對正在學習python的小伙伴們很有幫助,需要的朋友可以參考下
    2021-05-05

最新評論