博客
关于我
使用selenium爬取某东的手机商品信息
阅读量:501 次
发布时间:2019-03-07

本文共 5395 字,大约阅读时间需要 17 分钟。

程序完整代码

from selenium import webdriver   # 自动化爬取工具库import time    # 让程序休眠一段时间的库from lxml import etree   # lxml解析库import mysql.connector   # Python和数据库连接库import random  # 生成随机数的库from typing import NoReturn, Tuple, List  # 类型标记库class JD_example():    """爬取某东的类"""    def __init__(self, table_name: str) -> NoReturn:        """初始化        table_name:在MySQL中要创建并用来存储爬取数据的表的名称        """        self.browser = webdriver.Chrome()   # 初始化一个浏览器对象        self.browser.get('https://www.jd.com/')   # 打开网址        self.table_name = table_name   # 实例属性,MySQL中的表名        self.start_id = 1    # 实例属性,插入数据库中数据的起始ID        self.conn = mysql.connector.connect(  # 构建和MySQL的连接            host='localhost',            user='root',            passwd='123456',            port=3307,            charset='utf8',            database='reptile',        )        self.mycursor = self.conn.cursor()   # 构建油标    def append_to_database(self) -> NoReturn:        """将数据新加到表中"""        self.start_id = self.get_DBcount() + 1    def get_DBcount(self) -> int:        """获取表中的数据的条数"""        self.mycursor.execute("select count(*) from {};".format(self.table_name))        result = self.mycursor.fetchone()[0]        return result    def set_product(self, keyword: str) -> NoReturn:        """输入要搜索的商品的名称并点击搜索按钮        keyword:要搜索的商品的名称        """        self.browser.implicitly_wait(5)   # 设置隐式等待的时间        # 找到搜索框并输入商品名称        self.browser.find_element_by_css_selector('#key').send_keys(keyword)        time.sleep(random.choice([1, 1.4, 1.5, 2]))  # 休眠一段随机时间        # 找到搜索按钮并点击        self.browser.find_element_by_css_selector('.button').click()        self.browser.maximize_window()  # 窗口最大化    def clear_search_box(self) -> NoReturn:        """清空搜索框中的内容"""        self.browser.find_element_by_css_selector('#key').clear()        time.sleep(random.random())    def drop_down(self) -> NoReturn:        """向下滑动页面"""        for x in range(0, 11):  # 向下滑动一段随机距离,重复11次            time.sleep(2)            js = str('window.scrollBy(0,{})'.format(x * random.randint(70, 95)))            self.browser.execute_script(js)        # 下滑至下一页按钮出现在页面的最下方        self.browser.execute_script("document.querySelector('a.pn-next').scrollIntoView(false)")        time.sleep(random.randint(1, 3))    def parse_data(self) -> NoReturn:        """获取页面数据"""        html = self.browser.page_source  # 获取页面源码        e = etree.HTML(html)  # 初始化xpath        li_list = e.xpath('//*[@id="J_goodsList"]/ul/li')  # 选取目标li标签,生成一个li标签列表        # 每一个li标签对应一个商品,标签中包含商品的价格,名称,评价等信息,下面就是遍历每一个li标签        # 获取其中的商品信息        res = []        for li in li_list:            try:                price = float(''.join(li.xpath('./div/div[3]/strong/i/text()')).strip().replace(' ', ''))                name = li.xpath('string(./div/div[contains(@class,"name")]/a/em)').strip().replace('\n', '')                evaluate = li.xpath('string(./div/div[contains(@class,"commit")]/strong)').strip().replace('\n', '')                tem = tuple((self.start_id, price, name, evaluate))                res.append(tem)                print(self.start_id, price, name, evaluate, sep='|')                self.start_id += 1            except:                continue        return tuple(res)    def click_next_page(self) -> NoReturn:        """点击下一页"""        self.browser.find_element_by_xpath('//a[@class="pn-next"]').click()    def create_table(self) -> NoReturn:        """在mysql中创建一个名为输入的表名的表"""        self.mycursor.execute("create table if not exists {   }(\                               ID int ,\                               price decimal(10, 2),\                               product_name varchar(200),\                               evaluate varchar(20),\                               primary key (ID)\                               ) ENGINE=INNODB DEFAULT CHARSET='utf8mb4' COLLATE='utf8mb4_unicode_ci'".format(self.table_name)                              )    def insert_into_mysql(self, goods_tuple: Tuple[Tuple]) -> NoReturn:        """将数据插入到表中        goods_tuple:一个元组,元组的每一个元素也是元组,其中包含一个商品的id,价格,评价数量        """        sql_insert = "insert into {} values (%s, %s, %s, %s)".format(self.table_name)        self.mycursor.executemany(sql_insert, goods_tuple)        self.conn.commit()    def start(self, goods_lists: List[str], page_numbers: int) -> NoReturn:        """开始爬取        goods_lists:要爬取的商品的列表        page_numbers:每个商品要爬取的页数        """        self.create_table()        for good in goods_lists:            self.set_product(good)            self.append_to_database()            for i in range(0, page_numbers):                self.drop_down()                time.sleep(5)                goods_tuple = self.parse_data()                self.insert_into_mysql(goods_tuple)                self.click_next_page()            self.clear_search_box()        self.mycursor.close()        self.conn.close()        self.browser.close()if __name__ == '__main__':    """程序入口"""    jd1 = JD_example('jd0')    goods_lists = ['华为手机', 'ViVo手机', 'OPPO手机']    page_numbers = 1    jd1.start(goods_lists, page_numbers)

准备工作

  • 安装好MySQL
  • 安装好selenium并且电脑中有Chrome浏览器,下载好与自己的Chrome浏览器版本对应的selenium驱动,将驱动(可执行文件)放在Python的安装目录下的Scripts目录下
  • 安装好程序中所需要的第三方库
  • 打开MySQL服务
  • 更改程序__init__方法中与数据库连接的配置,如用户名、密码、数据库名等信息
  • 仔细看代码中的注释,我将代码的作用都写在注释中
  • 如果代码有些看不懂,记得多查一查
  • 当然,如果你对程序很了解之后,你可以对它进行改造,爬取更多种的商品,每种商品的信息数量也可以加大,消耗的时间也会相应的增加
  • 写下这篇文章的时间是2021.03 ,某东没有针对selenium的检查,也没有搜索商品需要登录的要求,当你看到这篇文章的时候,我不敢保证某东没有针对爬虫做技术升级

运行效果

在这里插入图片描述

在这里插入图片描述

转载地址:http://wxjcz.baihongyu.com/

你可能感兴趣的文章
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_生成插入Sql语句_实际操作02---大数据之Nifi工作笔记0041
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_不带分页处理_01_QueryDatabaseTable获取数据_原0036---大数据之Nifi工作笔记0064
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_无分页功能_02_转换数据_分割数据_提取JSON数据_替换拼接SQL_添加分页---大数据之Nifi工作笔记0037
查看>>
NIFI从PostGresql中离线读取数据再导入到MySql中_带有数据分页获取功能_不带分页不能用_NIFI资料太少了---大数据之Nifi工作笔记0039
查看>>
nifi使用过程-常见问题-以及入门总结---大数据之Nifi工作笔记0012
查看>>
NIFI分页获取Mysql数据_导入到Hbase中_并可通过phoenix客户端查询_含金量很高的一篇_搞了好久_实际操作05---大数据之Nifi工作笔记0045
查看>>
NIFI分页获取Postgresql数据到Hbase中_实际操作---大数据之Nifi工作笔记0049
查看>>
NIFI同步MySql数据_到SqlServer_错误_驱动程序无法通过使用安全套接字层(SSL)加密与SQL Server_Navicat连接SqlServer---大数据之Nifi工作笔记0047
查看>>
NIFI同步MySql数据源数据_到原始库hbase_同时对数据进行实时分析处理_同步到清洗库_实际操作06---大数据之Nifi工作笔记0046
查看>>
Nifi同步过程中报错create_time字段找不到_实际目标表和源表中没有这个字段---大数据之Nifi工作笔记0066
查看>>
NIFI大数据进阶_FlowFile拓扑_对FlowFile内容和属性的修改删除添加_介绍和描述_以及实际操作---大数据之Nifi工作笔记0023
查看>>
NIFI大数据进阶_FlowFile生成器_GenerateFlowFile处理器_ReplaceText处理器_处理器介绍_处理过程说明---大数据之Nifi工作笔记0019
查看>>
NIFI大数据进阶_FlowFile生成器_GenerateFlowFile处理器_ReplaceText处理器_实际操作---大数据之Nifi工作笔记0020
查看>>
NIFI大数据进阶_Json内容转换为Hive支持的文本格式_实际操作_02---大数据之Nifi工作笔记0032
查看>>
NIFI大数据进阶_Json内容转换为Hive支持的文本格式_操作方法说明_01_EvaluteJsonPath处理器---大数据之Nifi工作笔记0031
查看>>
NIFI大数据进阶_Kafka使用相关说明_实际操作Kafka消费者处理器_来消费kafka数据---大数据之Nifi工作笔记0037
查看>>
NIFI大数据进阶_Kafka使用相关说明_实际操作Kafka生产者---大数据之Nifi工作笔记0036
查看>>
NIFI大数据进阶_NIFI的模板和组的使用-介绍和实际操作_创建组_嵌套组_模板创建下载_导入---大数据之Nifi工作笔记0022
查看>>
NIFI大数据进阶_NIFI监控功能实际操作_Summary查看系统和处理器运行情况_viewDataProvenance查看_---大数据之Nifi工作笔记0026
查看>>