制作nba数据爬虫

捋顺思路

我们在这里选择的是百度体育带来的数据,我们在百度当中直接搜索nba跳转到网页,我们可以看到,百度已经为我们提供了相关的数据

我们点击进去后,可以发现这是一个非常简洁的网址

我们看一下这个地址栏,发现毫无规律https://tiyu.baidu.com/live/detail/576o5zu955s35a2q6igm5lia56%2bu55cd6igu6lwbi2jhc2tldgjhbgwjmjayms0wni0xmypnilxlo6t2c%2bwspritq%2biiuq%3d%3d/from/baidu_aladdin

好吧,只能再找找了,我们点击整个标签发现,这是一个网址,那就容易多了。

这里我们想要获取的无非就是具体的每一节数据和总分,然后如果用户还有其他需求的话我们就直接将其推送到百度网址上面来

爬取的思路大概就是这样,首先先访问主页面,然后在访问旗下今天的比赛,最后将比赛结果返回

编写代码

首先我们使用requests来访问网址

我们可以看到,百度没有做任何限制,直接访问也可以获得内容

接下来我们使用解析库进行解析

首先我们先将程序定位到main标签

代码则是这样的,运行代码我们会发现,整个代码缩进了不少

获取主要的页面,我们使用find函数进行进一步操作

我们成功定位到了这个主页面,接下来就是我们开始爬取最近几次的比赛信息和详细页面了

更改代码,我们直接获取所有的比赛信息

在测试网站的时候,我发现百度竟然使用了ajax技术,就是说你一次性获得的网站源代码可能只有五条,然后要进行再一次加载才能获取接下来的数据。但是这也对我们程序来说挺好的,我们本来也不需要那么多数据。

我们在这里查找了每一个的日期,查找对象为 date,接下来我们把其转换成字符串,因为百度上面这个日期有缩进,所以我们在后面添加 strip() 取消字符串前面的空格。按照这样的方式获取比赛地址

在这里,我们使用拼接字符串的方法,完成了对最后地址的解析

# 程序名称 : nbareporter
# 制作时间 : 2021年6月13日
# 运行环境 : windows 10

import requests
from bs4 import beautifulsoup

# 基础数据定义
baidu_nba_url = "https://tiyu.baidu.com/match/nba/"
request_url = "https:"
nba_dict = {}

# 访问网址
nba_res = requests.get(baidu_nba_url)
# print(nba_res.text)

# 开始使用解析器
nba_soup = beautifulsoup(nba_res.text, "html.parser")
nba_main = nba_soup.main
# print(nba_main)

nba_div = nba_main.find_all("div", class_ = "wa-match-schedule-list-wrapper")

for i in nba_div:
	# 获取比赛时间
	nba_time = i.find("div", class_ = "date").string.strip()
	print(nba_time)
	# 获取比赛的次数
	nba_times = i.find("div", class_ = "list-num c-color").string
	print(nba_times)
	# 获取详细的比赛地址
	nba_href = i.find_all("div", class_ = "wa-match-schedule-list-item c-line-bottom")

	for url_nba in nba_href:
		url_nba = url_nba.a
		url_href = url_nba["href"]

		real_url = request_url + url_href
		print(real_url)

接下来我们要开始剩余部分的解析,我们可以看到我们还有一部分的详细信息没有爬取,所以我们开始爬取详细信息

按照逻辑继续编写代码

然后我们获取一下这里面的值

获取比赛的相关分数后,我们创建两个列表,一个列表定义我们等一下需要用到nba的样式,另一个列表则存储今天的日期,最后返回

我们已经在这里吧这个方法封装了,所以我们创建一个新的文件,直接导入即可

nbareporter.py

# 程序名称 : nbareporter
# 制作时间 : 2021年6月13日
# 运行环境 : windows 10

import requests
from bs4 import beautifulsoup

def nbareporter():
	# 基础数据定义
	baidu_nba_url = "https://tiyu.baidu.com/match/nba/"
	request_url = "https:"
	nba_list = []
	today_list = []
	
	# 访问网址
	nba_res = requests.get(baidu_nba_url)
	# print(nba_res.text)

	# 开始使用解析器
	nba_soup = beautifulsoup(nba_res.text, "html.parser")
	nba_main = nba_soup.main
	# print(nba_main)

	nba_div = nba_main.find_all("div", class_ = "wa-match-schedule-list-wrapper")

	for i in nba_div:
		# 获取比赛时间
		today = i.find("div", class_ = "date").string.strip()
		# 获取比赛的次数
		nba_times = i.find("div", class_ = "list-num c-color").string
		# 获取详细的比赛地址
		nba_href = i.find_all("div", class_ = "wa-match-schedule-list-item c-line-bottom")

		for url_nba in nba_href:
			url_nba = url_nba.a
			url_href = url_nba["href"]

			real_url = request_url + url_href
			# print(real_url) 

			# 获取详细数据
			vs_time = url_nba.find("div", class_ = "font-14 c-gap-bottom-small").string
			vs_finals = url_nba.find("div",class_ = "font-12 c-color-gray").string

			team_row_1 = url_nba.find("div", class_ = "team-row")
			team_row_2 = url_nba.find("div", class_ = "c-gap-top-small team-row")

			"""team_row_1_jpg = team_row_1.find("div", class_ = "inline-block")["style"]
												team_row_2_jpg = team_row_2.find("div", class_ = "inline-block")["style"]
												print(team_row_1_jpg,team_row_2_jpg)"""
			team_row_1_name = team_row_1.find("span", class_ = "inline-block team-name team-name-360 team-name-320 c-line-clamp1").string
			team_row_2_name = team_row_2.find("span", class_ = "inline-block team-name team-name-360 team-name-320").string
			# print(team_row_1_name,team_row_2_name)
			team_row_1_score = team_row_1.find("span", class_ = "inline-block team-score-num c-line-clamp1").string
			team_row_2_score = team_row_2.find("span", class_ = "inline-block team-score-num c-line-clamp1").string
			# print(team_row_1_score,team_row_2_score)

			"""import re 		# 导入re库,不过最好还是在最前面导入,这里是为了演示的需要
									
												team_row_1_jpg_url = re.search(r'background:url(.*)', team_row_1_jpg)
												team_row_1_jpg_url = team_row_1_jpg_url.group(1)
												team_row_2_jpg_url = re.search(r'background:url(.*)', team_row_2_jpg)
												team_row_2_jpg_url = team_row_2_jpg_url.group(1)"""

			nba = [ today, nba_times,"","",
					vs_time, vs_finals, team_row_1_name, team_row_2_name,
					"","", team_row_1_score, team_row_2_score
			]

			nba_list.append(nba)
			today_list.append(today)

	return nba_list,today_list

这里我们要编写的是gui界面的实现程序

首先先导入我们运行所需要的库

简单定义一下我们的代码,设置标题和其他的一些窗口属性# self.setwindowopacity(0.5)这里是设置窗口透明程度的一行代码,但是经过我的测验之后,发现这样子真的对于用户体验一点也不好,所以在这里我把它注释掉了

程序主逻辑如上图所示,我们创建了一个单元布局,然后又创建了和比赛一样的若干个标签,最后将函数返回的列表以标签的形式放在主窗口上面

最后创建事件,运行程序,这样子整个程序就完成了

nbawindow.py

# 程序名称 : nbawindow
# 制作时间 : 2021年6月14日
# 运行环境 : windows 10
import sys
from pyqt5.qtcore import *
from pyqt5.qtgui import *
from pyqt5.qtwidgets import *
from nbareporter import *

# 首先创建一个主窗口
class nbawindow(qtabwidget):
	def __init__(self):
		super().__init__()
		self.make_ui()

		"""		# 两分钟自动刷新
		self.timer = qtimer()
		self.timer.setinterval(500)
		self.timer.timeout.connect(self.make_ui)
		self.timer.start()"""

		self.setwindowtitle("nba数据")
		self.setgeometry(1440,0,480,300)
		self.setfixedsize(480,300)
		self.setwindowicon(qicon('images/nba.jpg'))
		self.setstylesheet("""background-color:red; """)
		# self.setwindowopacity(0.5)
		self.setwindowflags(qt.windowstaysontophint|qt.windowminimizebuttonhint|qt.framelesswindowhint)

	def make_ui(self):
		self.nba,today = nbareporter()
		self.tab = 0

		for a in self.nba:
			# 设置网格单元布局
			grid = qgridlayout()
			self.setlayout(grid)

			# 开始添加一个标签
			tab = qwidget()
			# 将这个标签设置为tab并按照列表中的数值命名
			self.addtab(tab,today[self.tab])

			# 获取循环之后的位置,重写列表
			positions = [(i, j) for i in range(3) for j in range(4)]
			nba_list = self.nba[self.tab]

			# 开始创建tab下面的标签
			for position, nba in zip(positions, nba_list):
				#print(nba)
				# 当时空值时,跳过执行
				if nba == "":
					continue
				
				# 设置文字样式
				label = qlabel("<font color='black', size=5><b>%s</b></font>"%nba)
				grid.addwidget(label, *position)

				# 设置整个窗口为表格布局
				tab.setlayout(grid)

				# grid.update()

			# 将数值加一
			self.tab += 1

if __name__ == '__main__':
	app = qapplication(sys.argv)
	window = nbawindow()
	window.show()
	app.exec_()

nbareporter.py

# 程序名称 : nbareporter
# 制作时间 : 2021年6月13日
# 运行环境 : windows 10

import requests
from bs4 import beautifulsoup

def nbareporter():
	# 基础数据定义
	baidu_nba_url = "https://tiyu.baidu.com/match/nba/"
	request_url = "https:"
	nba_list = []
	today_list = []
	
	# 访问网址
	nba_res = requests.get(baidu_nba_url)
	# print(nba_res.text)

	# 开始使用解析器
	nba_soup = beautifulsoup(nba_res.text, "html.parser")
	nba_main = nba_soup.main
	# print(nba_main)

	nba_div = nba_main.find_all("div", class_ = "wa-match-schedule-list-wrapper")

	for i in nba_div:
		# 获取比赛时间
		today = i.find("div", class_ = "date").string.strip()
		# 获取比赛的次数
		nba_times = i.find("div", class_ = "list-num c-color").string
		# 获取详细的比赛地址
		nba_href = i.find_all("div", class_ = "wa-match-schedule-list-item c-line-bottom")

		for url_nba in nba_href:
			url_nba = url_nba.a
			url_href = url_nba["href"]

			real_url = request_url + url_href
			# print(real_url) 

			# 获取详细数据
			vs_time = url_nba.find("div", class_ = "font-14 c-gap-bottom-small").string
			vs_finals = url_nba.find("div",class_ = "font-12 c-color-gray").string

			team_row_1 = url_nba.find("div", class_ = "team-row")
			team_row_2 = url_nba.find("div", class_ = "c-gap-top-small team-row")

			"""team_row_1_jpg = team_row_1.find("div", class_ = "inline-block")["style"]
												team_row_2_jpg = team_row_2.find("div", class_ = "inline-block")["style"]
												print(team_row_1_jpg,team_row_2_jpg)"""
			team_row_1_name = team_row_1.find("span", class_ = "inline-block team-name team-name-360 team-name-320 c-line-clamp1").string
			team_row_2_name = team_row_2.find("span", class_ = "inline-block team-name team-name-360 team-name-320").string
			# print(team_row_1_name,team_row_2_name)
			team_row_1_score = team_row_1.find("span", class_ = "inline-block team-score-num c-line-clamp1").string
			team_row_2_score = team_row_2.find("span", class_ = "inline-block team-score-num c-line-clamp1").string
			# print(team_row_1_score,team_row_2_score)

			"""import re 		# 导入re库,不过最好还是在最前面导入,这里是为了演示的需要
									
												team_row_1_jpg_url = re.search(r'background:url(.*)', team_row_1_jpg)
												team_row_1_jpg_url = team_row_1_jpg_url.group(1)
												team_row_2_jpg_url = re.search(r'background:url(.*)', team_row_2_jpg)
												team_row_2_jpg_url = team_row_2_jpg_url.group(1)"""

			nba = [ today, nba_times,"","",
					vs_time, vs_finals, team_row_1_name, team_row_2_name,
					"","", team_row_1_score, team_row_2_score
			]

			nba_list.append(nba)
			today_list.append(today)

	return nba_list,today_list

效果演示

转载声明

本文于2021年6月14日首发自csdn,如需转载,请附上原文链接:python利用pyqt5制作一个获取网络实时数据nba数据播报gui

到此这篇关于python利用pyqt5制作一个获取网络实时数据nba数据播报gui功能的文章就介绍到这了,更多相关python获取网络实时数据内容请搜索www.887551.com以前的文章或继续浏览下面的相关文章希望大家以后多多支持www.887551.com!