Python源码:批量获取网站在百度、谷歌和360搜索引擎的权重
要批量获取网站百度、谷歌和360权重,可以使用Python的第三方库如`requests`和`BeautifulSoup`。首先,需要找到这些搜索引擎的权重查询接口,然后构造请求参数,发送请求并解析返回的HTML内容,提取出权重信息。以下是一个简单的示例代码: ```python import requests from bs4 import BeautifulSoup def get_seo_rank(url): # 构造请求参数 params = { 'site': url, 'query': 'link:' + url, 'key': '你的百度站长平台API密钥', 'p': '1' } # 发送请求 response = requests.get('https://api.baidu.com/siteapp/api?{}'.format(params)) # 解析返回的HTML内容 soup = BeautifulSoup
批量获取网站百度谷歌360权重Python源码,采用随机ua,批量抓取网站的权重。
importrequestsfrombs4importBeautifulSoupimporttimeimportrandom#读取文件内容withopen('www.txt','r')asf:content=f.read()#提取域名列表domains=content.split('\n')#定义多个User-Agent头部user_agents=['Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/86.0.4240.183Safari/537.36','Mozilla/5.0(WindowsNT10.0;Win64;x64;rv:78.0)Gecko/20100101Firefox/78.0','Mozilla/5.0(Macintosh;IntelMacOSX10_15_7)AppleWebKit/537.36(KHTML,likeGecko)Chrome/90.0.4430.212Safari/537.36',#更多User-Agent头部...]#遍历域名列表fordomainindomains:#随机选取一个User-Agent头部user_agent=random.choice(user_agents)headers={'User-Agent':user_agent}#发送请求url=f'https://www.aizhan.com/cha/{domain}/'res=requests.get(url,headers=headers)#解析响应soup=BeautifulSoup(res.text,'html.parser')baidu_rank_img=soup.find(id='baidurank_br').find('img')baidu_rank=baidu_rank_img['alt']ifbaidu_rank!="n":baidu_rank=int(baidu_rank)else:baidu_rank=int("0")#找到移动权重信息mobile_rank_img=soup.find(id='baidurank_mbr').find('img')mobile_rank=mobile_rank_img['alt']ifmobile_rank!="n":mobile_rank=int(mobile_rank)else:mobile_rank=int("0")#找到360权重信息so_rank_img=soup.find(id='360_pr').find('img')so_rank_rank=so_rank_img['alt']ifso_rank_rank!="n":so_rank_rank=int(so_rank_rank)else:so_rank_rank=int("0")#找到谷歌权重信息google_rank_img=soup.find(id='google_pr').find('img')ifgoogle_rank_img:google_rank=int(google_rank_img['alt'])ifbaidu_rank>=1ormobile_rank>=1orgoogle_rank>=3:print(f"{domain}")#暂停1到2秒之间的随机时间time.sleep(random.randint(1,2))