博客
关于我
使用selenium爬取某东的手机商品信息
阅读量:501 次
发布时间:2019-03-07

本文共 5395 字,大约阅读时间需要 17 分钟。

程序完整代码

from selenium import webdriver   # 自动化爬取工具库import time    # 让程序休眠一段时间的库from lxml import etree   # lxml解析库import mysql.connector   # Python和数据库连接库import random  # 生成随机数的库from typing import NoReturn, Tuple, List  # 类型标记库class JD_example():    """爬取某东的类"""    def __init__(self, table_name: str) -> NoReturn:        """初始化        table_name:在MySQL中要创建并用来存储爬取数据的表的名称        """        self.browser = webdriver.Chrome()   # 初始化一个浏览器对象        self.browser.get('https://www.jd.com/')   # 打开网址        self.table_name = table_name   # 实例属性,MySQL中的表名        self.start_id = 1    # 实例属性,插入数据库中数据的起始ID        self.conn = mysql.connector.connect(  # 构建和MySQL的连接            host='localhost',            user='root',            passwd='123456',            port=3307,            charset='utf8',            database='reptile',        )        self.mycursor = self.conn.cursor()   # 构建油标    def append_to_database(self) -> NoReturn:        """将数据新加到表中"""        self.start_id = self.get_DBcount() + 1    def get_DBcount(self) -> int:        """获取表中的数据的条数"""        self.mycursor.execute("select count(*) from {};".format(self.table_name))        result = self.mycursor.fetchone()[0]        return result    def set_product(self, keyword: str) -> NoReturn:        """输入要搜索的商品的名称并点击搜索按钮        keyword:要搜索的商品的名称        """        self.browser.implicitly_wait(5)   # 设置隐式等待的时间        # 找到搜索框并输入商品名称        self.browser.find_element_by_css_selector('#key').send_keys(keyword)        time.sleep(random.choice([1, 1.4, 1.5, 2]))  # 休眠一段随机时间        # 找到搜索按钮并点击        self.browser.find_element_by_css_selector('.button').click()        self.browser.maximize_window()  # 窗口最大化    def clear_search_box(self) -> NoReturn:        """清空搜索框中的内容"""        self.browser.find_element_by_css_selector('#key').clear()        time.sleep(random.random())    def drop_down(self) -> NoReturn:        """向下滑动页面"""        for x in range(0, 11):  # 向下滑动一段随机距离,重复11次            time.sleep(2)            js = str('window.scrollBy(0,{})'.format(x * random.randint(70, 95)))            self.browser.execute_script(js)        # 下滑至下一页按钮出现在页面的最下方        self.browser.execute_script("document.querySelector('a.pn-next').scrollIntoView(false)")        time.sleep(random.randint(1, 3))    def parse_data(self) -> NoReturn:        """获取页面数据"""        html = self.browser.page_source  # 获取页面源码        e = etree.HTML(html)  # 初始化xpath        li_list = e.xpath('//*[@id="J_goodsList"]/ul/li')  # 选取目标li标签,生成一个li标签列表        # 每一个li标签对应一个商品,标签中包含商品的价格,名称,评价等信息,下面就是遍历每一个li标签        # 获取其中的商品信息        res = []        for li in li_list:            try:                price = float(''.join(li.xpath('./div/div[3]/strong/i/text()')).strip().replace(' ', ''))                name = li.xpath('string(./div/div[contains(@class,"name")]/a/em)').strip().replace('\n', '')                evaluate = li.xpath('string(./div/div[contains(@class,"commit")]/strong)').strip().replace('\n', '')                tem = tuple((self.start_id, price, name, evaluate))                res.append(tem)                print(self.start_id, price, name, evaluate, sep='|')                self.start_id += 1            except:                continue        return tuple(res)    def click_next_page(self) -> NoReturn:        """点击下一页"""        self.browser.find_element_by_xpath('//a[@class="pn-next"]').click()    def create_table(self) -> NoReturn:        """在mysql中创建一个名为输入的表名的表"""        self.mycursor.execute("create table if not exists {   }(\                               ID int ,\                               price decimal(10, 2),\                               product_name varchar(200),\                               evaluate varchar(20),\                               primary key (ID)\                               ) ENGINE=INNODB DEFAULT CHARSET='utf8mb4' COLLATE='utf8mb4_unicode_ci'".format(self.table_name)                              )    def insert_into_mysql(self, goods_tuple: Tuple[Tuple]) -> NoReturn:        """将数据插入到表中        goods_tuple:一个元组,元组的每一个元素也是元组,其中包含一个商品的id,价格,评价数量        """        sql_insert = "insert into {} values (%s, %s, %s, %s)".format(self.table_name)        self.mycursor.executemany(sql_insert, goods_tuple)        self.conn.commit()    def start(self, goods_lists: List[str], page_numbers: int) -> NoReturn:        """开始爬取        goods_lists:要爬取的商品的列表        page_numbers:每个商品要爬取的页数        """        self.create_table()        for good in goods_lists:            self.set_product(good)            self.append_to_database()            for i in range(0, page_numbers):                self.drop_down()                time.sleep(5)                goods_tuple = self.parse_data()                self.insert_into_mysql(goods_tuple)                self.click_next_page()            self.clear_search_box()        self.mycursor.close()        self.conn.close()        self.browser.close()if __name__ == '__main__':    """程序入口"""    jd1 = JD_example('jd0')    goods_lists = ['华为手机', 'ViVo手机', 'OPPO手机']    page_numbers = 1    jd1.start(goods_lists, page_numbers)

准备工作

  • 安装好MySQL
  • 安装好selenium并且电脑中有Chrome浏览器,下载好与自己的Chrome浏览器版本对应的selenium驱动,将驱动(可执行文件)放在Python的安装目录下的Scripts目录下
  • 安装好程序中所需要的第三方库
  • 打开MySQL服务
  • 更改程序__init__方法中与数据库连接的配置,如用户名、密码、数据库名等信息
  • 仔细看代码中的注释,我将代码的作用都写在注释中
  • 如果代码有些看不懂,记得多查一查
  • 当然,如果你对程序很了解之后,你可以对它进行改造,爬取更多种的商品,每种商品的信息数量也可以加大,消耗的时间也会相应的增加
  • 写下这篇文章的时间是2021.03 ,某东没有针对selenium的检查,也没有搜索商品需要登录的要求,当你看到这篇文章的时候,我不敢保证某东没有针对爬虫做技术升级

运行效果

在这里插入图片描述

在这里插入图片描述

转载地址:http://wxjcz.baihongyu.com/

你可能感兴趣的文章
NIFI大数据进阶_Kafka使用相关说明_实际操作Kafka消费者处理器_来消费kafka数据---大数据之Nifi工作笔记0037
查看>>
NIFI大数据进阶_Kafka使用相关说明_实际操作Kafka生产者---大数据之Nifi工作笔记0036
查看>>
NIFI大数据进阶_NIFI的模板和组的使用-介绍和实际操作_创建组_嵌套组_模板创建下载_导入---大数据之Nifi工作笔记0022
查看>>
NIFI大数据进阶_NIFI监控功能实际操作_Summary查看系统和处理器运行情况_viewDataProvenance查看_---大数据之Nifi工作笔记0026
查看>>
NIFI大数据进阶_NIFI监控的强大功能介绍_处理器面板_进程组面板_summary监控_data_provenance事件源---大数据之Nifi工作笔记0025
查看>>
NIFI大数据进阶_NIFI集群知识点_认识NIFI集群以及集群的组成部分---大数据之Nifi工作笔记0014
查看>>
NIFI大数据进阶_NIFI集群知识点_集群的断开_重连_退役_卸载_总结---大数据之Nifi工作笔记0018
查看>>
NIFI大数据进阶_使用NIFI表达式语言_来获取自定义属性中的数据_NIFI表达式使用体验---大数据之Nifi工作笔记0024
查看>>
NIFI大数据进阶_内嵌ZK模式集群1_搭建过程说明---大数据之Nifi工作笔记0015
查看>>
NIFI大数据进阶_内嵌ZK模式集群2_实际操作搭建NIFI内嵌模式集群---大数据之Nifi工作笔记0016
查看>>
NIFI大数据进阶_外部ZK模式集群1_实际操作搭建NIFI外部ZK模式集群---大数据之Nifi工作笔记0017
查看>>
NIFI大数据进阶_实时同步MySql的数据到Hive中去_可增量同步_实时监控MySql数据库变化_操作方法说明_01---大数据之Nifi工作笔记0033
查看>>
NIFI大数据进阶_实时同步MySql的数据到Hive中去_可增量同步_实时监控MySql数据库变化_操作方法说明_02---大数据之Nifi工作笔记0034
查看>>
NIFI大数据进阶_离线同步MySql数据到HDFS_01_实际操作---大数据之Nifi工作笔记0029
查看>>
NIFI大数据进阶_离线同步MySql数据到HDFS_02_实际操作_splitjson处理器_puthdfs处理器_querydatabasetable处理器---大数据之Nifi工作笔记0030
查看>>
NIFI大数据进阶_离线同步MySql数据到HDFS_说明操作步骤---大数据之Nifi工作笔记0028
查看>>
NIFI大数据进阶_连接与关系_设置数据流负载均衡_设置背压_设置展现弯曲_介绍以及实际操作---大数据之Nifi工作笔记0027
查看>>
NIFI数据库同步_多表_特定表同时同步_实际操作_MySqlToMysql_可推广到其他数据库_Postgresql_Hbase_SqlServer等----大数据之Nifi工作笔记0053
查看>>
NIFI汉化_替换logo_二次开发_Idea编译NIFI最新源码_详细过程记录_全解析_Maven编译NIFI避坑指南001---大数据之Nifi工作笔记0068
查看>>
NIFI汉化_替换logo_二次开发_Idea编译NIFI最新源码_详细过程记录_全解析_Maven编译NIFI避坑指南002---大数据之Nifi工作笔记0069
查看>>