Python与SEO,三大SEO网站查询工具关键词查询采集源码!

这篇具有很好参考价值的文章主要介绍了Python与SEO,三大SEO网站查询工具关键词查询采集源码!。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

网站关键词查询挖掘,包括三大常用网站seo查询工具站点,爱站,站长,以及5118,其中,爱站及站长最多可查询到50页,5118可查询到100页,如果想要查询完整网站关键词排名数据,需充值购买会员,当然免费的查询也是需要注册会员的,不然也是没有查询权限!

5118

须自行补齐网站地址及Cookie协议头,查询需要登陆权限!

# 5118网站关键词采集
# -*- coding: utf-8 -*-
import requests
from lxml import etree
import time
import logging

logging.basicConfig(filename='s5118.log', level=logging.DEBUG,format='%(asctime)s - %(levelname)s - %(message)s')

#获取关键词
def get_keywords(site,page):
    url="https://www.5118.com/seo/baidupc"
    headers={
        "Cookie":Cookie,
        "User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36",
    }
    data={
        "isPager": "true",
        "viewtype": 2,
        "days": 90,
        "url": site,
        "orderField": "Rank",
        "orderDirection" : "sc",
        "pageIndex": page,
        "catalogName": "",
        "referKeyword": "",
    }
    response=requests.post(url=url,data=data,headers=headers,timeout=10)
    print(response.status_code)
    html=response.content.decode('utf-8')
    tree=etree.HTML(html)
    keywords=tree.xpath('//td[@class="list-col justify-content "]/a[@class="w100 all_array"]/text()')
    print(keywords)
    save_txt(keywords, site)
    return keywords


#存储为csv文件
def save_csv(keywords,site):
    filename=site.replace("www.",'').replace(".com",'').replace(".cn",'').replace('https://','').replace('http://','')
    for keyword in keywords:
        with open(f'5118_{filename}.csv','a+',encoding='utf-8-sig') as f:
            f.write(f'{keyword}\n')
    print("保存关键词列表成功!")


#存储为txt文件
def save_txt(keywords,site):
    filename=site.replace("www.",'').replace(".com",'').replace(".cn",'').replace('https://','').replace('http://','')
    for keyword in keywords:
        with open(f'5118_{filename}.txt','a+',encoding='utf-8') as f:
            f.write(f'{keyword}\n')
    print("保存关键词列表成功!")


def main(site):
    logging.info(f"开始爬取网站{site}关键词数据..")
    num = 100
    keys=[]
    for page in range(1,num+1):
        print(f"正在爬取第{page}页数据..")
        logging.info(f"正在爬取第{page}页数据..")
        try:
            keywords = get_keywords(site, page)
            keys.extend(keywords)
            time.sleep(8)
        except Exception as e:
            print(f"爬取第{page}页数据失败--错误代码:{e}")
            logging.error(f"爬取第{page}页数据失败--错误代码:{e}")
            time.sleep(10)

    keys = set(keys)  #去重
    save_csv(keys, site)


if __name__ == '__main__':
    site=""
    main(site)

Python与SEO,三大SEO网站查询工具关键词查询采集源码!

爱站

须自行补齐网站地址及Cookie协议头,查询需要登陆权限!

# 爱站网站关键词采集
# -*- coding: utf-8 -*-
import requests
from lxml import etree
import time
import logging

logging.basicConfig(filename='aizhan.log', level=logging.DEBUG,format='%(asctime)s - %(levelname)s - %(message)s')

#获取关键词
def get_keywords(site,page):
    url=f"https://baidurank.aizhan.com/baidu/{site}/-1/0/{page}/position/1/"
    headers = {
        "Cookie":Cookie ,
    }
    response = requests.get(url=url,headers=headers, timeout=10)
    print(response.status_code)
    html = response.content.decode('utf-8')
    tree = etree.HTML(html)
    keywords = tree.xpath('//td[@class="title"]/a[@class="gray"]/@title')
    print(keywords)
    save_txt(keywords, site)
    return keywords


#存储为csv文件
def save_csv(keywords,site):
    filename=site.replace("www.",'').replace(".com",'').replace(".cn",'').replace('https://','').replace('http://','')
    for keyword in keywords:
        with open(f'aizhan_{filename}.csv','a+',encoding='utf-8-sig') as f:
            f.write(f'{keyword}\n')
    print("保存关键词列表成功!")


#存储为txt文件
def save_txt(keywords,site):
    filename=site.replace("www.",'').replace(".com",'').replace(".cn",'').replace('https://','').replace('http://','')
    for keyword in keywords:
        with open(f'aizhan_{filename}.txt','a+',encoding='utf-8') as f:
            f.write(f'{keyword}\n')
    print("保存关键词列表成功!")


def main(site):
    logging.info(f"开始爬取网站{site}关键词数据..")
    num = 50
    keys=[]
    for page in range(1,num+1):
        print(f"正在爬取第{page}页数据..")
        logging.info(f"正在爬取第{page}页数据..")
        try:
            keywords = get_keywords(site, page)
            keys.extend(keywords)
            time.sleep(8)
        except Exception as e:
            print(f"爬取第{page}页数据失败--错误代码:{e}")
            logging.error(f"爬取第{page}页数据失败--错误代码:{e}")
            time.sleep(10)

    keys = set(keys)  #去重
    save_csv(keys, site)


if __name__ == '__main__':
    site=""
    main(site)

Python与SEO,三大SEO网站查询工具关键词查询采集源码!

站长

须自行补齐网站地址及Cookie协议头,查询需要登陆权限!

# 站长之家网站关键词采集
# -*- coding: utf-8 -*-
import requests
from lxml import etree
import time
import logging

logging.basicConfig(filename='chinaz.log', level=logging.DEBUG,format='%(asctime)s - %(levelname)s - %(message)s')


#获取关键词
def get_keywords(site,page):
    headers={
        "Cookie":Cookie,
        "User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36",
    }
    url=f"https://rank.chinaz.com/{site}-0---0-{page}"
    response=requests.get(url=url,headers=headers,timeout=8)
    print(response)
    html=response.content.decode('utf-8')
    tree=etree.HTML(html)
    keywords=tree.xpath('//ul[@class="_chinaz-rank-new5b"]/li[@class="w230 "]/a/text()')
    print(keywords)
    save_txt(keywords, site)
    return keywords


#存储为csv文件
def save_csv(keywords,site):
    filename=site.replace("www.",'').replace(".com",'').replace(".cn",'').replace('https://','').replace('http://','')
    for keyword in keywords:
        with open(f'chinaz_{filename}.csv','a+',encoding='utf-8-sig') as f:
            f.write(f'{keyword}\n')
    print("保存关键词列表成功!")

#存储为txt文件
def save_txt(keywords,site):
    filename=site.replace("www.",'').replace(".com",'').replace(".cn",'').replace('https://','').replace('http://','')
    for keyword in keywords:
        with open(f'chinaz_{filename}.txt','a+',encoding='utf-8') as f:
            f.write(f'{keyword}\n')
    print("保存关键词列表成功!")

def main(site):
    logging.info(f"开始爬取网站{site}关键词数据..")
    num = 50
    keys=[]
    for page in range(1,num+1):
        print(f"正在爬取第{page}页数据..")
        logging.info(f"正在爬取第{page}页数据..")
        try:
            keywords = get_keywords(site, page)
            keys.extend(keywords)
            time.sleep(8)
        except Exception as e:
            print(f"爬取第{page}页数据失败--错误代码:{e}")
            logging.error(f"爬取第{page}页数据失败--错误代码:{e}")
            time.sleep(10)

    keys = set(keys)  #去重
    save_csv(keys, site)


if __name__ == '__main__':
    site=""
    main(site)

往期推荐:

Python爬虫三种解析方式带你360搜索排名查询

Python与Seo工具全网搜录查询助手exe

Python百度下拉框关键词采集工具

Python制作sitemap.xml文件工具源码

Python调用翻译API接口实现“智能”伪原创

百度快排之Python selenium 实现搜索访问目标网站

·················END·················

你好,我是二大爷,

革命老区外出进城务工人员,

互联网非早期非专业站长,

喜好python,写作,阅读,英语

不入流程序,自媒体,seo . . .

公众号不挣钱,交个网友。

读者交流群已建立,找到我备注 “交流”,即可获得加入我们~

听说点 “在看” 的都变得更好看呐~

关注关注二大爷呗~给你分享python,写作,阅读的内容噢~

扫一扫下方二维码即可关注我噢~

Python与SEO,三大SEO网站查询工具关键词查询采集源码!

Python与SEO,三大SEO网站查询工具关键词查询采集源码!

关注我的都变秃了

说错了,都变强了!

不信你试试

扫码关注最新动态

公众号ID:eryeji文章来源地址https://www.toymoban.com/news/detail-495562.html

到了这里,关于Python与SEO,三大SEO网站查询工具关键词查询采集源码!的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • SEO如何让自己的网站可以在百度搜索到通过关键词搜索

    将你的网站网址提交给百度 在另外的页面中加入链接路径 选择完美的 管理您的元标记(meta) 针对移动设备进行优化 备案好你的网站 需要了解什么是 SEO以及其对在百度上面被发现的重要性。虽然您的网站很可能会在某个时候被不断抓取网络信息的百度机器人找到,

    2024年02月10日
    浏览(77)
  • 掌握SEO关键词布局技巧:让您的网站在搜索引擎中翻云覆雨,提升排名和流量

    每个网站,如果想要去做seo,得到免费的流量,那么它就必须要做布局。 并且,对于整个网站的seo策略来说,布局是尤为重要并且不得不做的一块。 在做某件事情之前,我们需要先了解它的本质,或者说它是什么。所以大家会发现我写的大部分文章,都会

    2024年02月12日
    浏览(170)
  • 提升网站关键词排名的工具

    随着互联网的蓬勃发展,网站的排名成为衡量网站流量和曝光度的重要指标。在这个竞争激烈的数字时代,站在搜索引擎结果的前列变得至关重要。为了实现这一目标,合理利用排名优化工具是必不可少的。本文将重点介绍147SEO软件,探讨其在提升官网排名方面

    2024年01月22日
    浏览(93)
  • Midjourney自学相关网站:【教程】【关键词生成工具】【后期插件神器】

    【Midjourney注册相关网址】 Midjourney网址: https://www.midjourney.com/home/ discord网址: https://discord.com/ 【教程类】 Midjourney官方帮助指南: https://docs.midjourney.com/docs/models 点击蓝字,查看文章: AI绘画-Midjourney入门指南【注册账号】  Midjourney最简单入门操作指南  Midjourney4种生图玩法

    2024年02月15日
    浏览(56)
  • seo关键词排名点击优化软件

    seo优化软件,什么是SEO优化软件?SEO优化软件有什么用? SEO优化软件是辅助网站排名的软件,增加网站SEO排名,SEO排名不单单全靠SEO优化软件,更多的是需要网站自身的SEO优化。今天给大家分享一款万能的SEO优化软

    2023年04月09日
    浏览(67)
  • seo如何优化关键词上首页

    优化是百度搜索引擎优化的一个重要方面,我们如何在许多网站中脱颖而出,获得更多的访问量?seo如何优化上首页?以下是百度搜索引擎优化如何优化的一些方法。 1.选择合适的; 2.建立正确的; 3.合理使用标题和内容; 4.充分利用图片;

    2024年02月16日
    浏览(111)
  • 掌握Python爬虫实现网站关键词扩展提升曝光率

    目录 一、优化的重要性 二、优化的基本方法 1、选择与网站内容相关的 2、控制的密度和分布 3、的层次布局 三、Python爬虫实现网站扩展 1、确定目标网站 2、分析目标网站的HTML结构 3、编写Python爬虫代码 4、分析爬取到的数据

    2024年02月07日
    浏览(53)
  • SEO优化怎么快速把关键词优化至首页

    为了确保基本的密度或者网页内容相关性,更多的时候应该分布在页面中的固定位置,而不是在可变因素上,像一些网站的评论、在线问答之类。如果是在页面上方的位置,就是稳定出现且不会变动的,这样的布局至少保证了在页面的一开始就会出现一次

    2024年02月10日
    浏览(68)
  • 关键词采集软件在SEO优化中的应用与效果

    搜索引擎的优化被广泛认为是提高网站排名和在线可见性的重要方法之一。SEO人员需要进行大量的工作以确保网站的内容和标签可以被搜索引擎正确地解析和索引。在这项任务中,使用搜索引擎采集软件可以帮助SEO人员完成许多繁琐的任务并简化他们的工作流程。在本

    2023年04月26日
    浏览(70)
  • SEO教程:如何优化长尾关键词达到快速排名(干货)

    前言 做SEO网站优化,挖掘长尾是站内优化的核心之一,网站的核心流量以及站外流量基本都是来自长尾,长尾的排名越好,就能为网站带来更多的精准流量,以及高转化。 目录 01.为什么要优化长尾 02.如何挖掘长尾词(干货干货) 03.如何布局长尾词

    2023年04月09日
    浏览(95)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包