spark是什么?在大数据圈子里的地位如何

spark是什么?在大数据圈子里的的定位是哪一个?数据本身就是一个很宽泛的概念,一切数据被记录、被分析、产出新的信息,这些事物在无时无刻的发生着,大数据也好,传统意义上的数据也罢,总归是跑不出数据的传递、存储、计算这三个方向

spark是什么?在大数据圈子里的的定位是哪一个?大数据又与数据有什么样的关联和区别?数据本身就是一个很宽泛的概念,一切数据被记录、被分析、产出新的信息,这些事物在无时无刻的发生着,大数据也好,传统意义上的数据也罢,总归是跑不出数据的传递、存储、计算这三个方向

spark是什么
spark是什么

spark是大数据生态圈的计算框架,也就是说它主要占据数据整体流向闭环中的计算这一部分,至于它的技术基础和详细的使用介绍可以通过笔者之前的文章做入门了解。它不论是在数据的离线处理,实时计算等数仓构建以及机器学习等多个针对数据做计算的方方面面的应用都体现了较好的效果。在大数据计算处理这一块占有重要的一席之地。

而大数据相对于传统意义上的数据而言,主要区别在于大数据的数据量以及数据来源的多样性。两者的本质都是从历史数据中发现对未来有价值的信息。数据是对现象发生过程的全记录,通过数据不仅能够了解对象,还能分析对象,掌握对象运作的规律,挖掘对象内部的结构与特点,甚至能了解对象自己都不知道的信息。

大数据杀熟?
coivd-19流调数据跟踪....
网购推荐喜欢精准到匪夷所思...
天气地震的预测...

无论是什么场景,都是数据或者大数据的具体应用和具象反馈,数据无处不在,数据的价值也是不可估量的。

built in functions 内置函数 hive sql 数据计算

built in functions 内置函数,顾名思义是内部的函数,所谓内部主要是指解析器内部。通俗的讲就是我们用什么语言或者什么工具它自带的一些具有某些快速计算逻辑的方法或者函数。hive sql同样也具有很多这样的内置函数

built in functions 内置函数,顾名思义是内部的函数,所谓内部主要是指解析器内部。通俗的讲就是我们用什么语言或者什么工具它自带的一些具有某些快速计算逻辑的方法或者函数。hive sql同样也具有很多这样的内置函数,笔者不对所有的内置函数做罗列,我们拿具体的数据来展示效果。

我们在以前的文章中对于hive sql 的一些内置方法也有过简单的介绍,比如与数据行号相关的方法

背景介绍

字段名注释
article_id文章ID
height屏高
position页面位置
duration阅读时长
scoll_number滚屏次数
words_number文章字数
hive table informations

截取hive table的部分字段来运用内置函数来计算对应数据的科学计数效果

hive table datas for build in functions
hive table datas

平均值、最大值和最小值

SELECT  MIN(scoll_number) min_value
        ,MAX(scoll_number) max_value
        ,AVG(scoll_number) avg_value
        ,SUM(scoll_number) total_value
        ,COUNT(scoll_number) count_value
FROM    ads_recommend_article_statistic
;
min_valuemax_valueavg_valuetotal_valuecount_value
01167.3667296786389423897529
最大值、最小值、平均值 内置函数

方差、协方差、N位值、相关系数

SELECT  STDDEV(scoll_number) stddev_value, --标准差
        STDDEV_SAMP(scoll_number) samp_value --标准差 精度更细,小量数据计算
        ,var_samp(scoll_number) var_value --方差
        ,covar_pop(scoll_number, words_number) covar_value -- 协方差
        ,percentile(scoll_number, 0.4) percent_value --4分位值
        ,percentile(scoll_number, 0.5) percent_value --中位值
        ,corr(scoll_number, words_number) corr_value --皮尔逊系数
FROM    ads_recommend_article_statistic
科学计数公式函数
方差公式:
m为x1,x2...xn数列的期望值(平均数)
s^2 = [(x1-m)^2 + (x2-m)^2 + ... (xn-m)^2]/n

s即为标准差
s^2为方差。

scrapy python 框架爬虫 基础浅析

scrapy python 框架爬虫 这些词初接触者肯定不知所云。所以读者可以直接度娘或者Google这些词条“什么是scrapy python“,“what is scrapy python”,“scrapy 基础入门”,“scrapy python example”,“Scrapy框架模组”,“Scrapy框架流程”等,笔者直接带大家实操一下基于scrapy python的基本网页爬取。

scrapy python 框架爬虫 这些词初接触者肯定不知所云。所以读者可以直接度娘或者Google这些词条“什么是python“,“what is scrapy”,“scrapy 基础入门”,“scrapy example”等等诸如此类的。可以看到各种各样的文章,读者都可以快速的对scrapy python做基本的了解。

故笔者不再做多余的赘述最最基础的简介如什么是爬虫Scrapy框架模组Scrapy框架流程等,笔者直接带大家实操一下基于scrapy的基本网页爬取。

爬虫 就是遥摘星辰

scrapy python 框架爬虫

爬虫 就是遥摘星辰

 

scrapy 基本步骤

创建工程、编写爬虫文件、执行工程

  • scrapy startproject xxxPro — 固定模型创建工程,自动生成items.py, pipeline.py,settings.py等文件。
  • 在项目目录下输入: scrapy genspider spiderName www.XXX.com 创建具体的爬虫文件
  • 修改相应的爬虫文件、items、pipelines、settings、中间件等文件来完善具体的爬取细节
  • 在项目目录下执行: scrapy crawl spiderName

基本命令

  1. scrapy bench: 测试scrapy的基本性能等
  2. scrapy fetch: 通过scrapy下载器下载指定的url
  3. scrapy genspider : 创建爬虫,类似于python XX.py
  4. scrapy runspider: 启动爬虫
  5. scrapy settings: 获取setting值
  6. scrapy shell ‘http://XXX.com‘: 启动一个shell界面,类似于ipthon的效果,可以通过命令行来对指定的url进行单步调试
  7. scrapy startproject: 创建工程项目

scrapy 框架爬虫 入门实例介绍

  1. scrapy startproject feixiaohao: 生成如下结构的文件夹及文件
    # windows 可以需要通过命令 tree /f , 来看到结构
    └─feixiaohao
    │  scrapy.cfg
    │
    └─feixiaohao
        │  items.py
        │  middlewares.py
        │  pipelines.py
        │  settings.py
        │  __init__.py
        │
        └─spiders
                __init__.py

    项目中自动生成文件说明

    • scrapy.cfg: 项目的配置文件,会包含项目的基本信息和一些基础设置,每个版本的scrpay可能会有些许的差异
    • items.py 项目目标文件,结构化的数据字段,提供一些数据校验的防护,减少错误;类似orm映射
    • pipelines.py 项目管道文件
    • middlewares.py 项目中间件文件
    • settings.py 项目设置文件,默认启动项,公共资源配置等
  2. scrapy genspider -l : 指定
     scrapy genspider -l
     Available templates:
        basic  : 基础爬虫类型的文件
        crawl  :定义一些rules,适合深度爬取一些有规律网站
        csvfeed :按行遍历解析csv源文件
        xmlfeed :按各节点迭代解析xml源文件
  3. cd 到feixiaohao文件夹里, 输入命令: scrapy genspider feixh “https://www.feixiaohao.co/” 来只做具体的爬虫文件,在spiders文件中会初始化一个新的具体爬虫文件
    │  scrapy.cfg
    │
    └─feixiaohao
        │  items.py
        │  middlewares.py
        │  pipelines.py
        │  settings.py
        │  __init__.py
        │
        └─spiders
                feixh.py
                __init__.py
  4. feixh.py文件的核心内容
    class FeixhSpider(scrapy.Spider):
        name = 'feixh'
        allowed_domains = ['https://www.feixiaohao.co/']
        start_urls = ['https://www.feixiaohao.co/news?tab=0']
        ##start_urls = ['https://www.feixiaohao.co']
        def parse(self, response):
            pass

    正常情况feixh.py文件的start_urls是咱们在构建爬虫文件时指定的地址, 因为笔者要爬虫咨询相关的内容,所有手动换到的具体的地址。
    接下来我们要做的就是要对爬取的网页进行页面分析,如何分析呢? 之前笔者在爬虫入门的文章中介绍过在浏览器中查看元素xpath的方法,或者直接对页面做正则解析,但是不管哪种方式都需要我们在浏览器中查看页面源码来看一下页面是如何加载的。

  5. 利用Chrome 的Xpath Helper插件辅助解析页面内容
    我们定义需要爬取的item.py

     

    class FeixiaohaoItem(scrapy.Item):
        # define the fields for your item here like:
        # name = scrapy.Field()
        title = scrapy.Field()  # 咨讯标题
        href = scrapy.Field()   # 咨讯地址 
        date = scrapy.Field()   # 咨讯发布日期
        source_name = scrapy.Field()    # 资讯来源
        spider_time = scrapy.Field()    # 资讯爬取时间

    feixh.py的parse方法具体如下,里边涉及到的xpath解析就是先在页面找到元素再复制过来修正得到的,但是有一个问题就是页面的xpath路径是绝对路径定位到元素本身,一般我们到代码中时需要往上一层。
    这里涉及到一些细节的调试,这个调试我们可以通过scrapy shell来达到具体的效果

    def parse(self, response):
        html = etree.HTML(response.body.decode('utf-8'))
        datas = html.xpath('//*[@id="__layout"]/section/div[1]/div/div[1]/div/div[2]/div[2]')[0]
        for data in datas.xpath('./article'):
            item = FeixiaohaoItem()
            title = data.xpath('.//div[@class="info"]/a[1]/text()')[0]
            href = data.xpath('.//div[@class="info"]/a[1]/@href')[0]
            source = data.xpath('.//div[@class="info"]//a[@class="name"]/text()')[0]
            date = data.xpath('.//div[@class="info"]/div[@class="time"]/span/text()')[0]
            item['title'] = title
            item['href'] = href
            item['date'] = date
            item['source_name'] = source
            item['spider_time'] = time.time()
            yield item
  6. scrapy shell “https://www.feixiaohao.co/news?tab=0
    scrapy shell 这个命令我们可以dos窗口或者pycharm的 Terminal里来执行,这个就类似于ipython的运行环境,这样我们就可以逐步的对response进行解析,因为当scrapy shell运行出来后就已经可以解析到response了,读者可以自行print(response)看到相关的内容
    有一点需要主要,这个环境中所有用到的包都需要自行import,就跟运行ipython是一样的效果。
  7. 正常的逻辑就是继续找到翻页的连接地址或者翻页按钮跳转的地址,做循环解析。
    但是如果页面是翻页按钮或者后续加载按钮是用js触发的接口,那么我们就需要调整start_url列表的内容。,需要我们在浏览器中找到翻页按钮对应的接口地址。

     

        start_url= ['https://***/news/hot?page={}&per_page=20&webp=1'.format(i) for i in range(1, 29)]

    这样做的话我们的parse方法就要从新写逻辑,就不能用xpath来做解析了,而是直接接口对应的返回值做json处理。