
文章插图
- 这个小爬虫我们用到的requests、re、lxml、json和pyMySQL在编写代码之前我们需要将他们导入进来.
import requestsfrom lxml import etreeimport pymysqlimport json
- 首先先选择一个浏览器头信息,这个可有可无,当然有了更好,存在它才能让我们的爬虫更像是从浏览器进入获取信息的 。
【搜狐新闻小爬虫,解析数据接口并插入mysql数据库】headers = { 'Connection': 'keep-alive', 'Upgrade-Insecure-Requests': '1', 'User-Agent': 'Mozilla/5.0 (windows NT 6.1; Win64; x64) AppleWebKit/537.36 (Khtml, like Gecko) Chrome/69.0.3497.100 Safari/537.36', 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8', 'Accept-Encoding': 'gzip, deflate', 'Accept-Language': 'zh-CN,zh;q=0.9',}
- 接下来就是分析数据接口了,这个可以使用浏览器按F12,切换到编辑者模式,从中分析出数据接口链接,这里我们直接给出数据接口 。
url = "http://v2.sohu.com/public-api/feed?scene=CHANNEL&sceneId=10&page=1&size=10"通过数据接口形式我们看到它有两个参数page和size,page=1表示第一页,size=10表示每页十条数据 。我们只需要改变page的数据就可以源源不断的获取数据了,当然获取数据要节制,不要给人家服务器造成太大压力 。
- 接下来直接请求网页链接获取链接返回的数据 。这里返回的是json字符串,我们需要对json字符串进行解析,这个时候json这个库就用到了 。
json_str = requests.get(url,headers= headers).text[{ "id": 357806424, "authorId": 557006, "authorName": "FX168", "authorPic": "//sucimg.itc.cn/avatarimg/34ca41ae9ad04be68072f8894d7124b7_1491542550231", "focus": "//5b0988e595225.cdn.sohucs.com/c_fill,w_600,h_300,g_faces/images/20191202/cc5eda06fba94b3fb7ed0c1c2faea9a6.jpeg", "picUrl": "//5b0988e595225.cdn.sohucs.com/c_fill,w_150,h_100,g_faces,q_70/images/20191202/cc5eda06fba94b3fb7ed0c1c2faea9a6.jpeg", "images": ["//5b0988e595225.cdn.sohucs.com/c_fill,w_150,h_100,g_faces,q_70/images/20191202/cc5eda06fba94b3fb7ed0c1c2faea9a6.jpeg", "//5b0988e595225.cdn.sohucs.com/c_fill,w_150,h_100,g_faces,q_70/images/20191202/df1ed938d9614cf690f87a58577ce07a.png"], "title": "?70年来首次,美国成石油净出口国!国际油价暴跌近5%,一切才刚刚开始?", "mobileTitle": "?70年来首次,美国成石油净出口国!国际油价暴跌近5%,一切才刚刚开始?", "tags": [{"id": 70694,"name": "沙特","channelId": 0,"channelName": null,"categoryId": 0,"categoryName": null,"config": null,"introduction": null,"secureScore": 100,"hotSpot": false }, {"id": 68937,"name": "美国","channelId": 0,"channelName": null,"categoryId": 0,"categoryName": null,"config": null,"introduction": null,"secureScore": 100,"hotSpot": false }, {"id": 68938,"name": "俄罗斯","channelId": 0,"channelName": null,"categoryId": 0,"categoryName": null,"config": null,"introduction": null,"secureScore": 100,"hotSpot": false }], "publicTime": 1575262702000, "channelId": 0, "channelName": null, "channelUrl": "", "categoryId": 0, "categoryName": null, "headImage": null, "cmsId": 0, "originalSource": "http://mp.weixin.qq.com/s?__biz=MjM5OTAwOTMyMA==&mid=2650280772&idx=1&sn=85dd7f58ab6b292fcff2d57a677a35dc", "outerLink": false, "otherId": 0, "passport": "fx168caijing@sohu.com", "personalPage": "http://mp.sohu.com/profile?xpt=ZngxNjhjYWlqaW5nQHNvaHUuY29t", "videoInfo": null, "type": 0, "cover": null, "tkd": null, "secureScore": 100}]
- 通过这个数据我们来提取我们自己需要的数据,比如标题,发布时间,当然如果想获取新闻正文,还需要进入到网址链接中取,在数据中我们看到网址链接在picUrl这个字段中 。搜狐的新闻链接是通过id与authorId拼接而成,针对上面的一条数据,这个新闻的正文链接便是
http://www.sohu.com/a/357806424_557006
- 通过之前的方式,我们再去请求这个网址获取新闻正文的html原页面,再将原页面通过lxml加工成元素结构,便可以直接获取数据啦!
推荐阅读
-
-
-
-
货币|安永荣膺2020《亚洲货币》中国卓越绿色金融大奖——最佳绿色金融认证机构
-
「连衣裙」48岁小陶虹穿搭太少女,扎双马尾素颜出镜,一双大长腿抢尽风头
-
「小小快乐口袋」最好别靠近,一个不明物体出现在美国河面下!专家:尺寸太大
-
-
#牛仔裤#霍思燕终于瘦了!穿粉色卫衣配浅色牛仔裤春夏感十足,颜值也回春
-
地方政府债券|收评:股指震荡盘整沪指涨0.19% 汽车板块表现强势
-
红到出圈|发文求助航空公司引争议,网友:航囧安排一下,徐峥深夜被困机场
-
第一财经|金融开放加速券商面临新变化 强化优势业务或成关键
-
明代@《大秦帝国之天下》今年将播,历史正剧来袭,值得去看
-
游戏中的大拇指▲百万玩家抢着买遇见神鹿皮肤,瑶新皮肤不值得秒?张大仙教你3招
-
热血传奇|热血传奇里的井中月,被称为小屠龙,不曾想竟有这样一段往事
-
清朝|清朝士兵衣服上的字:兵和勇,一字之差,概念已完全不同
-
淘宝一家店铺可以领几张优惠券 淘宝联盟优惠券是一人只能领一次吗
-
-
晓萌美食 牛肉火锅、韩式年糕火锅、麻辣火锅鱼的家常做法,香辣美味又下饭
-
环球网|高龄产妇即将生产却无人照料 到底要不要逮捕她的毒贩丈夫?
-