这篇文章将为大家详细讲解有关Python如何实现爬取百度贴吧,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。

下载百度贴吧帖子图片,好好看

python2.7版本:
#coding=utf-8
import re
import requests
import urllib
from bs4 import BeautifulSoup
import time
time1=time.time()
def getHtml(url):
page = requests.get(url)
html =page.text
return html
def getImg(html):
soup = BeautifulSoup(html, 'html.parser')
img_info = soup.find_all('img', class_='BDE_Image')
global index
for index,img in enumerate(img_info,index+1):
print ("正在下载第{}张图片".format(index))
urllib.urlretrieve(img.get("src"),'C:/pic4/%s.jpg' % index)
def getMaxPage(url):
html = getHtml(url)
reg = re.compile(r'max-page="(\d+)"')
page = re.findall(reg,html)
page = int(page[0])
return page
if __name__=='__main__':
url = "https://tieba.baidu.com/p/5113603072"
page = getMaxPage(url)
index = 0
for i in range(1,page):
url = "%s%s" % ("https://tieba.baidu.com/p/5113603072?pn=",str(i))
html = getHtml(url)
getImg(html)
print ("OK!All DownLoad!")
time2=time.time()
print u'总共耗时:' + str(time2 - time1) + 's'关于“Python如何实现爬取百度贴吧”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,使各位可以学到更多知识,如果觉得文章不错,请把它分享出去让更多的人看到。
另外有需要云服务器可以了解下创新互联scvps.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。