nrg文件用什么打开(nrg文件用什么播放器播放)

抒情君 5

前言:在我搭建好Jellyfin软件后,因为只能播放本地视频,就想能不能播放网络上的电影,可以每天自动下载并更新,这样就不用我手工下载好,再上传到NAS中播放。或许有更好的方法,那就是直接用电影播放源,那就有个问题了,没有那个视频网愿意给播放源,所以还是自己慢慢下载后再播放吧。个人对于python语言也是小白,在网络上寻找大神的脚本稍加修改得到的。

如果需要搭建jellyfin,请看我之前的博客-家庭影院Jellyfin搭建,linux网页视频播放器。

环境:centos7

工具:python3、jellyfin、shell脚本、aria2

1、安装python3

默认安装好centos7系统后,自带有python2.7.5的版本,所以需要安装python3的版本。2.7.5的版本不能删除,否则centos系统会崩溃。请从官网下载python3.8版本。

关于python2升级至python3,会有一些问题,但都能解决,请参考以下资料:

1)Centos7升级python2到python3

2)pbzip2: error while loading shared libraries: libbz2.so.1.0: cannot open shared object file

3)centos7安装python3及其配置pip(建立软连接)

2、编辑python脚本

命名脚本为movie.py,将以下复制到py脚本保存,执行python3 movie.py。查看爬取结果,是否生成文件。

脚本不是我编写的,是借鉴大神,然后根据电影天堂现在的地址和信息,做了一些改动,获取下载电影地址

encoding: gbk我们用到的库importrequestsimportbs4importreimportpandasaspddefget_data(url):功能:访问 url 的网页,获取网页内容并返回
参数:
url :目标网页的 url
返回:目标网页的 html 内容headers = {accept:text/html,application/xhtml xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,user-agent:Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36,
}try:
r = requests.get(url, headers=headers)
r.raise_for_status()
r.encoding =gbkreturnr.textexceptrequests.HTTPErrorase:
print(e)
print("HTTPError")exceptrequests.RequestExceptionase:
print(e)except:
print("Unknown Error !")defparse_data(html):功能:提取 html 页面信息中的关键信息,并整合一个数组并返回
参数:html 根据 url 获取到的网页内容
返回:存储有 html 中提取出的关键信息的数组bsobj = bs4.BeautifulSoup(html,html.parser)
info = []获取电影列表tbList = bsobj.find_all(table, attrs = {class:tbspan})对电影列表中的每一部电影单独处理foritemintbList:

movie = []
link = item.b.find_all(a)[0]获取电影的名称name = link.string获取详情页面的 urlurl =https://www.dytt8.net link["href"]将数据存放到电影信息列表里movie.append(name)
movie.append(url)try:访问电影的详情页面,查找电影下载的磁力链接temp = bs4.BeautifulSoup(get_data(url),html.parser)
tbody = temp.find_all(a)
print(tbody)^magnet.*?fannouce下载链接有多个(也可能没有),这里将所有链接都放进来foriintbody:
lines = i.get("href")if"magnet"inlines:download = lines.a.textprint(lines)movie.append(lines)

print(movie)将此电影的信息加入到电影列表中info.append(movie)exceptExceptionase:
print(e)returninfodefsave_data(data):功能:将 data 中的信息输出到文件中/或数据库中。
参数:data 将要保存的数据filename =C:/Users/Administrator/Desktop/movie.txtdataframe = pd.DataFrame(data)
dataframe.to_csv(filename, mode=a, index=False, sep=;, header=False)defmain():循环爬取多页数据for page in range(1, 114):print(正在爬取:第 str(page) 页......)根据之前分析的 URL 的组成结构,构造新的 urlif page == 1:index = indexelse:index = index_ str(page)url = https://www.dy2018.com/2/ index .htmlurl=https://www.dy2018.com/2/index.htmlurl=https://www.dytt8.net/html/gndy/dyzz/index.html依次调用网络请求函数,网页解析函数,数据存储函数,爬取并保存该页数据html = get_data(url)
movies = parse_data(html)
save_data(movies)print(第 str(page) 页完成!)if__name__ ==__main__:
print(爬虫启动成功!)
main()
print(爬虫执行完毕!)

3、安装aria2

安装教程,请访问我的博客第一条,安装nextcloud里面有详细的安装aria2教程

4、编写aria2下载的shell脚本

!/bin/bashcd/downloads
count=0/root/shell/movie.txt,这个地址是movie.py执行后生成的下载地址,请根据你实际的地址填写route=/root/shell/movie.txt
name=(`awk -F";"{print $1}$route| cut -d《-f2|cut -d》-f1 | cut -d/-f1`)
addr=(`awk -F";"{print $3}$route`)
nr=`awk{print NR}$route| tail -n1`
prop=`awk -F";"{print $3}$route| cut -d

上一篇:

下一篇:

  推荐阅读

分享