from bs4 import BeautifulSoup title = open ( r "./title.txt" , "w" , encoding = 'utf' ) #打开文件 def find ( key ) : url = "https://search.bilibili.com/all?keyword=" + key #搜索结果页一般是在主页网址后面加上(all?keyword="要搜索的字段") try : #尝试 html = requests . get ( url ) html . raise_for_status ( ) except : #如果错误的话 print ( "error" ) finally : #执行完成后收尾(类似析构函数) return html . text #以中文编码返回 def getsoup ( html ) : soup = BeautifulSoup ( html , "html.parser" ) #解析器:lxml, html5lib, 和 html.parser for data 爬虫成功代码[一] (python)注:自己备份用的,怕我到时候找不到ヾノ≧∀≦)o作用:提取B站视频的标题(就是提取网页的文字)import requestsimport refrom bs4 import BeautifulSouptitle=open(r"./title.txt","w",encoding='utf')#打开文件def find(key): url = "https://search.bilibili.com/all?keyword="+key#搜索结果页一般 链接:https://www.bilibili.com/video/av27235826/?p=1 该 视频 截至2018.11.30有195个分P,通过缓存到手机上并把缓存目录所在的文件夹上传至PC端。利用格式工厂查找.blv格式的所以文件并转化为.MP4格式。保存于源文件。 但是 B站 所缓存的 视频 并不是集中存放于一个文件而是被分散许多小文件夹当...
b站 大学上,为了更好的写笔记,本人根据学到的 Python (即 Python 入门(黑马)的学习笔记)与爬虫的知识(即 Python 爬虫的urlib的学习、 Python 爬虫的解析),使用xpath进行解析,获取到了 b站 视频 标题 ,具体步骤如下。若要直接阅读最终源代码,请直接看最后的一小部分。  本次将以获取尚硅谷 Python 爬虫教程小白零基础速通的 视频 标题 为例进行演示。   在PyCharm中创建文件“ b站 视频 标题 的获取(xpath).py”   按F12打开检查,点击网络,清空网络中的接口,点击刷新,寻