成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

想要學會Python爬蟲,就必須從零開始!

開發 后端
簡單來說互聯網是由一個個站點和網絡設備組成的大網,我們通過瀏覽器訪問站點,站點把HTML、JS、CSS代碼返回給瀏覽器,這些代碼經過瀏覽器解析、渲染,將豐富多彩的網頁呈現我們眼前。 

[[240662]]

前言

簡單來說互聯網是由一個個站點和網絡設備組成的大網,我們通過瀏覽器訪問站點,站點把HTML、JS、CSS代碼返回給瀏覽器,這些代碼經過瀏覽器解析、渲染,將豐富多彩的網頁呈現我們眼前。 

一、爬蟲是什么?

如果我們把互聯網比作一張大的蜘蛛網,數據便是存放于蜘蛛網的各個節點,而爬蟲就是一只小蜘蛛,沿著網絡抓取自己的獵物(數據)爬蟲指的是:向網站發起請求,獲取資源后分析并提取有用數據的程序;從技術層面來說就是通過程序模擬瀏覽器請求站點的行為,把站點返回的HTML代碼/JSON數據/二進制數據(圖片、視頻) 爬到本地,進而提取自己需要的數據,存放起來使用。

二、爬蟲的基本流程:

用戶獲取網絡數據的方式:

方式1:瀏覽器提交請求--->下載網頁代碼--->解析成頁面

方式2:模擬瀏覽器發送請求(獲取網頁代碼)->提取有用的數據->存放于數據庫或文件中

爬蟲要做的就是方式2;

Python爬蟲原理!想要學會爬蟲,就必須從零開始!

 

1、發起請求

使用http庫向目標站點發起請求,即發送一個Request

Request包含:請求頭、請求體等

Request模塊缺陷:不能執行JS 和CSS 代碼

2、獲取響應內容

如果服務器能正常響應,則會得到一個Response

Response包含:html,json,圖片,視頻等

3、解析內容

解析html數據:正則表達式(RE模塊),第三方解析庫如Beautifulsoup,pyquery等

解析json數據:json模塊

解析二進制數據:以wb的方式寫入文件

4、保存數據

數據庫(MySQL,Mongdb、Redis)

文件

三、http協議 請求與響應 

Request:用戶將自己的信息通過瀏覽器(socket client)發送給服務器(socketserver

Response:服務器接收請求,分析用戶發來的請求信息,然后返回數據(返回的數據中可能包含其他鏈接,如:圖片,js,css等)

ps:瀏覽器在接收Response后,會解析其內容來顯示給用戶,而爬蟲程序在模擬瀏覽器發送請求然后接收Response后,是要提取其中的有用數據。

四、 request

1、請求方式:

常見的請求方式:GET / POST

2、請求的URL

url全球統一資源定位符,用來定義互聯網上一個***的資源 例如:一張圖片、一個文件、一段視頻都可以用url***確定

url編碼

https://www.baidu.com/s?wd=圖片

圖片會被編碼(看示例代碼)

網頁的加載過程是:

加載一個網頁,通常都是先加載document文檔,

在解析document文檔的時候,遇到鏈接,則針對超鏈接發起下載圖片的請求

3、請求頭

User-agent:請求頭中如果沒有user-agent客戶端配置,服務端可能將你當做一個非法用戶host;

cookies:cookie用來保存登錄信息

注意: 一般做爬蟲都會加上請求頭[[240664]]

 Python爬蟲原理!想要學會爬蟲,就必須從零開始! 

請求頭需要注意的參數:

(1)Referrer:訪問源至哪里來(一些大型網站,會通過Referrer 做防盜鏈策略;所有爬蟲也要注意模擬)

(2)User-Agent:訪問的瀏覽器(要加上否則會被當成爬蟲程序)

(3)cookie:請求頭注意攜帶

4、請求體

請求體

如果是get方式,請求體沒有內容 (get請求的請求體放在 url后面參數中,直接能看到)

如果是post方式,請求體是format data

ps:

1、登錄窗口,文件上傳等,信息都會被附加到請求體內

2、登錄,輸入錯誤的用戶名密碼,然后提交,就可以看到post,正確登錄后頁面通常會跳轉,無法捕捉到post

五、 響應Response

1、響應狀態碼

200:代表成功

301:代表跳轉

404:文件不存在

403:無權限訪問

502:服務器錯誤

2、respone header

響應頭需要注意的參數:

(1)Set-Cookie:BDSVRTM=0; path=/:可能有多個,是來告訴瀏覽器,把cookie保存下來

(2)Content-Location:服務端響應頭中包含Location返回瀏覽器之后,瀏覽器就會重新訪問另一個頁面

3、preview就是網頁源代碼

JSO數據

如網頁html,圖片

二進制數據等

六、總結

1、總結爬蟲流程:

爬取--->解析--->存儲

2、爬蟲所需工具:

請求庫:requests,selenium(可以驅動瀏覽器解析渲染CSS和JS,但有性能劣勢(有用沒用的網頁都會加載);)

解析庫:正則,beautifulsoup,pyquery

存儲庫:文件,MySQL,Mongodb,Redis 

 

責任編輯:龐桂玉 來源: 今日頭條
相關推薦

2015-11-17 16:11:07

Code Review

2019-01-18 12:39:45

云計算PaaS公有云

2018-04-18 07:01:59

Docker容器虛擬機

2024-12-06 17:02:26

2020-07-02 15:32:23

Kubernetes容器架構

2018-06-12 13:12:15

編程語言Python爬蟲

2011-04-19 13:32:01

jQueryjavascript

2024-03-01 19:53:37

PyBuilderPython開發

2010-05-26 17:35:08

配置Xcode SVN

2018-09-14 17:16:22

云計算軟件計算機網絡

2024-05-15 14:29:45

2018-05-09 19:29:49

Python爬蟲scrapy

2018-05-09 20:08:09

人工智能深度學習Python

2018-01-16 11:00:25

2017-12-12 12:24:39

Python決策樹

2024-05-17 17:29:00

CurdlingPython開發

2015-10-15 14:16:24

2024-04-10 07:48:41

搜索引擎場景

2011-04-06 15:55:50

開發webOS程序webOS

2024-11-28 10:35:47

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲一区二区在线播放 | 欧美日韩亚洲三区 | 成人午夜激情 | 亚洲免费观看视频 | 91看片在线 | 欧美99久久精品乱码影视 | 亚洲免费视频在线观看 | 久久99蜜桃综合影院免费观看 | 国产色| 日韩在线精品强乱中文字幕 | 国产精品综合色区在线观看 | 国产精品久久久久久影视 | 黄色一级大片在线观看 | 激情av在线 | 日韩一区二区三区视频 | 久久一热 | 国产精品揄拍一区二区久久国内亚洲精 | 一道本一区二区 | 日韩有码一区 | 亚洲三区在线观看 | www.亚洲国产精品 | 蜜桃av鲁一鲁一鲁一鲁 | 日本久久精品视频 | 国产区视频在线观看 | 天堂免费看片 | 精品久久久久久久久久久久 | 中文字幕97 | 中文字幕在线播放第一页 | 天堂一区| 久久国产一区二区三区 | 一级片在线免费看 | 色综合久 | 国产a级黄色录像 | 欧美精品一区二区三区蜜桃视频 | 成人av在线大片 | 日本网站免费观看 | 欧美中文字幕在线观看 | 日本久久一区二区三区 | 成人性生交大片免费看中文带字幕 | 久久久久久久久久性 | 本地毛片 |