from
bs4
import
BeautifulSoup
title
=
open
(
r
"./title.txt"
,
"w"
,
encoding
=
'utf'
)
def
find
(
key
)
:
url
=
"https://search.bilibili.com/all?keyword="
+
key
try
:
html
=
requests
.
get
(
url
)
html
.
raise_for_status
(
)
except
:
print
(
"error"
)
finally
:
return
html
.
text
def
getsoup
(
html
)
:
soup
=
BeautifulSoup
(
html
,
"html.parser"
)
for
data
爬虫成功代码[一] (python)注:自己备份用的,怕我到时候找不到ヾノ≧∀≦)o作用:提取B站视频的标题(就是提取网页的文字)import requestsimport refrom bs4 import BeautifulSouptitle=open(r"./title.txt","w",encoding='utf')#打开文件def find(key): url = "https://search.bilibili.com/all?keyword="+key#搜索结果页一般
链接:https://www.bilibili.com/video/av27235826/?p=1
该
视频
截至2018.11.30有195个分P,通过缓存到手机上并把缓存目录所在的文件夹上传至PC端。利用格式工厂查找.blv格式的所以文件并转化为.MP4格式。保存于源文件。
但是
B站
所缓存的
视频
并不是集中存放于一个文件而是被分散许多小文件夹当...
在
b站
大学上,为了更好的写笔记,本人根据学到的
Python
(即
Python
入门(黑马)的学习笔记)与爬虫的知识(即
Python
爬虫的urlib的学习、
Python
爬虫的解析),使用xpath进行解析,获取到了
b站
视频
的
标题
,具体步骤如下。若要直接阅读最终源代码,请直接看最后的一小部分。 本次将以获取尚硅谷
Python
爬虫教程小白零基础速通的
视频
标题
为例进行演示。
在PyCharm中创建文件“
b站
视频
标题
的获取(xpath).py”
按F12打开检查,点击网络,清空网络中的接口,点击刷新,寻