主要爬取內(nèi)容包括:公司名稱、天眼查評(píng)分、注冊(cè)資本、成立時(shí)間、法人、經(jīng)營(yíng)范圍等" />

国产成人精品无码青草_亚洲国产美女精品久久久久∴_欧美人与鲁交大毛片免费_国产果冻豆传媒麻婆精东

15158846557 在線咨詢 在線咨詢
15158846557 在線咨詢
所在位置: 首頁(yè) > 營(yíng)銷資訊 > 網(wǎng)站運(yùn)營(yíng) > 爬蟲(chóng)實(shí)戰(zhàn)—“網(wǎng)絡(luò)信息安全”公司top100

爬蟲(chóng)實(shí)戰(zhàn)—“網(wǎng)絡(luò)信息安全”公司top100

時(shí)間:2023-06-21 05:00:01 | 來(lái)源:網(wǎng)站運(yùn)營(yíng)

時(shí)間:2023-06-21 05:00:01 來(lái)源:網(wǎng)站運(yùn)營(yíng)

爬蟲(chóng)實(shí)戰(zhàn)—“網(wǎng)絡(luò)信息安全”公司top100:

項(xiàng)目描述

為了解網(wǎng)絡(luò)信息安全行業(yè)公司情況,從天眼查爬取前100個(gè)相關(guān)公司,并對(duì)其進(jìn)行簡(jiǎn)單分析。

主要爬取內(nèi)容包括:公司名稱、天眼查評(píng)分、注冊(cè)資本、成立時(shí)間、法人、經(jīng)營(yíng)范圍等

項(xiàng)目流程

分為以下四個(gè)步驟:準(zhǔn)備工作、頁(yè)面下載、頁(yè)面解析、數(shù)據(jù)保存;數(shù)據(jù)分析

  1. 獲取將要爬取頁(yè)面的URL,即網(wǎng)址。如需進(jìn)行相關(guān)聯(lián)的多頁(yè)面爬取,需進(jìn)行簡(jiǎn)單分析,找出各個(gè)頁(yè)面之間的聯(lián)系。
  2. 獲取headers信息,如果頁(yè)面內(nèi)容需登錄才顯示,那么還需要獲取Cookie信息。
url_begin = "https://www.tianyancha.com/search/p"url_end = "?key=%E7%BD%91%E7%BB%9C%E4%BF%A1%E6%81%AF%E5%AE%89%E5%85%A8"final_result = []for i in range(1, 6): # 分析前5個(gè)頁(yè)面 url = url_begin + str(i) + url_end # 拼接得到頁(yè)面URL


headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.122 Safari/537.36" }此處需要使用到requsets模塊的get方法,來(lái)下載頁(yè)面,供我們進(jìn)一步的分析和解析數(shù)據(jù)。

Requests 簡(jiǎn)化了 urllib 的諸多冗雜且無(wú)意義的操作,并提供了更強(qiáng)大的功能。
Requests 是 Python 所有模塊中最受歡迎的一個(gè),全世界最優(yōu)秀的程序員都在使用它!
import requestsres= requests.get(url,headers=headers)print(res.status_code) #判斷是否正確得到頁(yè)面,返回200說(shuō)明成功將下載得到的頁(yè)面進(jìn)行分析,找到我們需要的信息。

此處需要用到beautifulsoup模塊,它能幫助我們將requests下載的頁(yè)面內(nèi)容轉(zhuǎn)為文檔樹(shù)的形式,方便我們分析的提取數(shù)據(jù)。

BeautifulSoup 模塊,可以化腐朽為神奇,將一個(gè)復(fù)雜的網(wǎng)頁(yè)結(jié)構(gòu)轉(zhuǎn)化為書(shū)籍目錄的形式供你瀏覽。
本項(xiàng)目主要對(duì)公司名稱、天眼查評(píng)分、注冊(cè)資本、成立時(shí)間、法人、經(jīng)營(yíng)范圍幾項(xiàng)信息進(jìn)行提取。

from bs4 import BeautifulSoupsoup = BeautifulSoup(res.text,'html.parser')result = [] # 一個(gè)頁(yè)面的信息#公司名、評(píng)分company = []score = []targets= soup.find_all('div',class_="search-item sv-search-company")for each in targets: temp = each.find('a') company.append(temp.text)for each in targets: try: temp = each.find('span',class_ ="score-num") score.append(int(temp.text)) except: score.append("暫無(wú)")#法人boss = []targets = soup.find_all('div', class_="title -wider text-ellipsis")for each in targets: try: boss.append(each.a.text) except: boss.append("未公開(kāi)")#注冊(cè)資本reg_money = []targets = soup.find_all('div',class_="title -narrow text-ellipsis")for each in targets: try: reg_money.append(int(each.span.text.split("萬(wàn)")[0])) except: reg_money.append("未公開(kāi)")#成立日期date = []targets = soup.find_all('div',class_="title text-ellipsis")for each in targets: try: date.append(each.span.text) except: date.append("未公開(kāi)")# 經(jīng)營(yíng)范圍&歷史名稱service = []targets = soup.find_all('div', class_="search-item sv-search-company")for each in targets: try: temp = each.find('div', class_="match row text-ellipsis" ) service.append(temp.span.text) except: service.append("未公開(kāi)")#匯總信息length = len(company)for i in range(0,length): result.append([company[i], score[i], reg_money[i], date[i], boss[i], service[i]])return result將提取到的信息保存到Excel文件中,需要用到openpyxl工具包。

import openpyxlwb = openpyxl.Workbook()wb.guess_type = Truews = wb.activews.append(["公司名稱", "天眼評(píng)分", "注冊(cè)資本(萬(wàn)元)", "成立時(shí)間", "法人", "其他信息"])for item in data: ws.append(item)wb.save("網(wǎng)絡(luò)信息安全前100.xlsx")保存到Excel的內(nèi)容如下所示:

數(shù)據(jù)分析

  1. 可以看出,天眼查是按照天眼評(píng)分排序,對(duì)公司進(jìn)行展示
  2. 以成立時(shí)間維度分析:
3.以注冊(cè)資本維度分析:

4.以經(jīng)營(yíng)范圍分析,主要有:


完整代碼:




隨手點(diǎn)贊,手留余香~

關(guān)鍵詞:安全,實(shí)戰(zhàn),網(wǎng)絡(luò),信息,爬蟲(chóng)

74
73
25
news

版權(quán)所有? 億企邦 1997-2025 保留一切法律許可權(quán)利。

為了最佳展示效果,本站不支持IE9及以下版本的瀏覽器,建議您使用谷歌Chrome瀏覽器。 點(diǎn)擊下載Chrome瀏覽器
關(guān)閉