新版必应实在是太强大了,最近玩爬虫不亦乐乎,按照你的思路和条件,分分钟给你生成一个爬虫,爬取你喜欢的任意内容,包括今天的100张小姐姐图片,(100万张都可以,做教程演示就没必要那么多了)废话不说,直接上教程:
我重申一下,很多同学还不知道怎么申请新版必应,这里我将以前的教程分享出来,自己对照教程,就可以注册,不用再给我私信了!
申请必应教程:点击申请
融合ChatGPT的微软新版必应bing更加智能,国内随便用
手机使用新版必应教程,点击查看
手机使用新版必应NewBingAi保姆级教程,设置简单比ChatGPT好用
1、我们打开新版必应bing.com/new,打开对话框,选择有创造力,为什么选这个呢,这个会有较大自由发挥空间,选另外两个输出的结果会比较严谨,适合做学术。
3、完整的代码:(为了不影响阅读,放在文章末尾了,需要的往下划)
4、既然是python爬虫,就需要python环境执行,(为了演示教程,我亲手将系统里的环境删除的干干净净,[捂脸]太不容易了,给个关注吧[呲牙])
下载安装python,我们还是交给BingChatAi搜索提供下载地址吧:
就是这个界面
下面是代码,需要的自取,思路其实没啥思路,非常简单,感兴趣的动起来!
# 导入 requests 和 BeautifulSoup 库import requestsfrom bs4 import BeautifulSoup# 定义要爬取的关键词和保存路径keyword = "小姐姐"save_path = "F:photo100"# 定义百度图片的 url 模板url_template = "https://image.baidu.com/search/flip?tn=baiduimage&ie=utf-8&word={}&pn={}"# 定义要爬取的图片数量num = 100# 定义一个计数器count = 0# 循环爬取每一页的图片while count < num: # 根据关键词和页码生成 url url = url_template.format(keyword, count) # 发送 get 请求,并获取响应内容 response = requests.get(url) content = response.text # 使用 BeautifulSoup 解析 html 内容,并找到所有的 img 标签 soup = BeautifulSoup(content, "html.parser") imgs = soup.find_all("img") # 循环遍历每个 img 标签,并获取其 src 属性值(即图片链接) for img in imgs: src = img.get("src") # 如果 src 不为空,则尝试下载图片并保存到本地 if src: try: # 发送 get 请求,并获取图片二进制数据 img_data = requests.get(src).content # 生成图片文件名和路径 file_name = keyword str(count) ".jpg" file_path = save_path file_name # 打开文件并写入数据 with open(file_path, "wb") as f: f.write(img_data) # 打印提示信息 print("已下载第 {} 张图片:{}".format(count 1, file_name)) # 计数器加一,并判断是否达到目标数量,如果是,则退出循环 count = 1 if count == num: break except Exception as e: # 如果出现异常,则打印错误信息,并继续循环 print("下载第 {} 张图片失败:{}".format(count 1, e))
花粉社群VIP加油站
猜你喜欢