第2个回答 2021-07-28
计算机基础的处理功能就是数据采集、数据处理、生成结果,那么如何去实现呢?
爬虫技术是数据采集的一种,第一代计算机用纸带打孔的方式被动输入数据,到后面发展出键盘、鼠标,到网络时代可以通过另外一台计算提交数据,而爬虫技术是主动获取数据的技术手段之一。
数据分析简单一点的就是收到的数据进行分析得到有用信息,打个比喻以前通过爬虫技术去获取主流论坛的发帖量,就可以分析得到哪个论坛人流量大,如果在更深入分析,就可以分析出某个论坛在某个领域人流量比较大。
数据挖掘就是数据分析更加深入的一个步骤,参照上一条比喻,我们的数据库累计十多年的论坛爬虫数据记录,那么通过数据挖掘的方法,可能挖出很多有用的信息