-
安装Scrapy
pip install Scrapy -
安装 jq
sudo apt-get install jq详见 Download jq
-
克隆项目到本地
git clone https://github.com/DefiedParty/epgspider -
给👴爬
scrapy crawl epgjson -a chname=jxtv -a chNameCN=江西卫视 -a targetDate=2021-01-19 -a fileName=啊吧啊吧.json
bash ./epg_get.sh n1 n2 m c
n1 指定了爬取向前推多少天内的节目单,使用负数或 0 表示
n2 指定了爬取向后推多少天内的节目单,使用正数或 0 表示
m 指定是否需要合并
c 指定是否需要清理 epg_db 文件夹
下面是一个例子:
这是项目目录下的 channel_list.cfg :
CCTV1 cctv1
河南卫视 hatv
陕西卫视 sntv
江西卫视 jxtv
当前系统时间:2021-05-28
执行 bash ./epg_get.sh -1 0 将在项目目录下生成下列文件:
河南卫视 2021-05-27.json
河南卫视 2021-05-28.json
江西卫视 2021-05-27.json
江西卫视 2021-05-28.json
陕西卫视 2021-05-27.json
陕西卫视 2021-05-28.json
CCTV1 2021-05-27.json
CCTV1 2021-05-28.json
如果添加参数 m
bash ./epg_get.sh -1 0 m
那么在项目目录下仅生成一个合并后的 fullepgs.json
提示:
-
如果使用合并参数
m,那么将在目录epg_db/下存储曾经爬取的所有节目单,且不会自动删除。此举为了节约重复爬取时消耗的服务器资源! -
使用合并参数
m的情况下,为了防止部分频道不提供预告,从而导致所有日期的节目单内容都只为一条 “0:00 暂未提供节目表”的情况出现,现在将强制爬取时对应系统日期的节目单。 -
已经提供了清理
epg_db目录的选项,再使用合并功能(使用合并参数m)的情况下,在其后加上参数c即可删除时间段外的所有节目单缓存。
-
chname指定了键,可随意设置 -
chNameCN意为“频道名”,用于请求数据,有确定性 -
targetDate意为“请求清单日期”,用于请求数据
注意! fileName 为非必选项!
运行结束后会在项目根目录生成 fullepg.json ,格式如下:
{
"jxtv": [
{
"start": 1610994900,
"stop": 1611000300,
"title": "\u7eaa\u5f55\u7247"
},
{
"start": 1611000300,
"stop": 1611009600,
"title": "\u6df1\u591c\u5267\u573a"
},
{
"start": 1611009600,
"stop": 1611010800,
"title": "\u6c5f\u897f\u65b0\u95fb\u8054\u64ad"
},
.......
{
"start": 1611069900,
"stop": 1611071999,
"title": "\u7cbe\u54c1\u5267\u573a"
}
]
}