php怎么写爬虫?一个PHP实现的轻量级简单爬虫
发布:smiling 来源: PHP粉丝网 添加日期:2018-07-12 19:51:18 浏览: 评论:0
最近需要收集资料,在浏览器上用另存为的方式实在是很麻烦,而且不利于存储和检索。所以自己写了一个小爬虫,在网上爬东西,迄今为止,已经爬了近百 万张网页。现在正在想办法着手处理这些数据。
爬虫的结构:
爬虫的原理其实很简单,就是分析下载的页面,找出其中的连接,然后再下载这些链接,再分析再下载,周而复始。在数据存储方面,数据库是首选,便于检索,而 开发语言,只要支持正则表达式就可以了,数据库我选择了mysql,所以,开发脚本我选择了php。它支持perl兼容正则表达式,连接mysql很方 便,支持http下载,而且windows系统和linux系统都可以部署。
正则表达式:
正则表达式是处理文字的基本工具,要取出html中的链接和图片,使用的正则表达式如下。
- "#<a[^>]+href=(['\"])(.+)\\1#isU" 处理链接
- "#<img[^>]+src=(['\"])(.+)\\1#isU" 处理图片
其他问题:
写爬虫还需要注意的一个问题是,对于已经下载过的url,不能重复进行下载,而有些网页的链接会形成环路,所以需要处理这个问题,我的处理方法是计算已经 处理的url的MD5 值,并存入数据库,这样就可以检验是否已经下载过。当然还有更好的算法,有兴趣的话,可以在网上找一下。
相关协议:
爬虫也有自己的协议,有个robots.txt文件定义了那些是网站允许遍历的,但是由于我的时间有限,没有实现这个功能。
其他说明:
php支持类编程,我写的爬虫主要的类.
1.url处理web_site_info,主要用处理url,分析域名等。
2.数据库操作mysql_insert.php,处理和数据库相关的操作。
3.历史记录处理,记录已经处理的url。
4.爬虫类。
存在的问题和不足
这个爬虫在小数据量的情况下,运行良好,但是在大数据量的情况下,历史记录处理类的效率就不是很高,通过在数据库结构中,对相关字段进行了索引,速度有了 提高,但是需要不断得读取数据,可能和php本身的array实现有关系,如果一次加载10万条历史记录,速度非常慢。
不支持多线程,每次只能处理一个url。
php运行本身有内存使用量限制,有一次在抓取深度为20的页面的时候,内存用尽程序被杀。
下面的url是源码下载。
http://xiazai.jb51.net/201506/other/net_spider.rar
使用的时候,先在mysql中创建net_spider数据库,然后用db.sql创建相关表。再在config.php中设置mysql 的用户名口令。
最后:
php -f spider.php 深度(数值) url
就可以开始工作。如
php -f spider.php 20 http://news.sina.com.cn
现在感觉下来,其实做个爬虫没那么复杂,难的是数据的存储和检索。我现在的数据库,最大一个数据表已经15G,正在想办处理这些数据,mysql进 行查询已经感觉有点力不从心了。这点上还真佩服google.
- <?php
- #加载页面
- functioncurl_get($url){
- $ch=curl_init();
- curl_setopt($ch,CURLOPT_URL,$url);
- curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);
- curl_setopt($ch,CURLOPT_HEADER,1);
- $result=curl_exec($ch);
- $code=curl_getinfo($ch,CURLINFO_HTTP_CODE);
- if($code!='404'&&$result){
- return$result;
- }
- curl_close($ch);
- }
- #获取页面url链接
- functionget_page_urls($spider_page_result,$base_url){
- $get_url_result=preg_match_all("/<[a|A].*?href=[\'\"]{0,1}([^>\'\"\]*).*?>/",$spider_page_result,$out);
- if($get_url_result){
- return$out[1];
- }else{
- return;
- }
- }
- #相对路径转绝对路径
- functionxdtojd($base_url,$url_list){
- if(is_array($url_list)){
- foreach($url_listas$url_item){
- if(preg_match("/^(http:\/\/|https:\/\/|javascript:)/",$url_item)){
- $result_url_list[]=$url_item;
- }else{
- if(preg_match("/^\//",$url_item)){
- $real_url=$base_url.$url_item;
- }else{
- $real_url=$base_url."/".$url_item;
- }
- #$real_url='http://www.sumpay.cn/'.$url_item;
- $result_url_list[] =$real_url;
- }
- }
- return$result_url_list;
- }else{
- return;
- }
- }
- #删除其他站点url
- functionother_site_url_del($jd_url_list,$url_base){
- if(is_array($jd_url_list)){
- foreach($jd_url_listas$all_url){
- echo$all_url;
- if(strpos($all_url,$url_base)===0){
- $all_url_list[]=$all_url;
- }
- }
- return$all_url_list;
- }else{
- return;
- }
- }
- #删除相同URL
- functionurl_same_del($array_url){
- if(is_array($array_url)){
- $insert_url=array();
- $pizza=file_get_contents("/tmp/url.txt");
- if($pizza){
- $pizza=explode("\r\n",$pizza);
- foreach($array_urlas$array_value_url){
- if(!in_array($array_value_url,$pizza)){
- $insert_url[]=$array_value_url;
- }
- }
- if($insert_url){
- foreach($insert_urlas$key=>$insert_url_value){
- #这里只做了参数相同去重处理
- $update_insert_url=preg_replace('/=[^&]*/','=leesec',$insert_url_value);
- foreach($pizzaas$pizza_value){
- $update_pizza_value=preg_replace('/=[^&]*/','=leesec',$pizza_value);
- if($update_insert_url==$update_pizza_value){
- unset($insert_url[$key]);
- continue;
- }
- }
- }
- }
- }else{
- $insert_url=array();
- $insert_new_url=array();
- $insert_url=$array_url;
- foreach($insert_urlas$insert_url_value){
- $update_insert_url=preg_replace('/=[^&]*/','=leesec',$insert_url_value);
- $insert_new_url[]=$update_insert_url;
- }
- $insert_new_url=array_unique($insert_new_url);
- foreach($insert_new_urlas$key=>$insert_new_url_val){
- $insert_url_bf[]=$insert_url[$key];
- }
- $insert_url=$insert_url_bf;
- }
- return$insert_url;
- }else{
- return;
- }
- }
- $current_url=$argv[1];
- $fp_puts=fopen("/tmp/url.txt","ab");//记录url列表
- $fp_gets=fopen("/tmp/url.txt","r");//保存url列表
- $url_base_url=parse_url($current_url);
- if($url_base_url['scheme']==""){
- $url_base="http://".$url_base_url['host'];
- }else{ //phpfensi.com
- $url_base=$url_base_url['scheme']."://".$url_base_url['host'];
- }
- do{
- $spider_page_result=curl_get($current_url);
- #var_dump($spider_page_result);
- $url_list=get_page_urls($spider_page_result,$url_base);
- #var_dump($url_list);
- if(!$url_list){
- continue;
- }
- $jd_url_list=xdtojd($url_base,$url_list);
- #var_dump($jd_url_list);
- $result_url_arr=other_site_url_del($jd_url_list,$url_base);
- var_dump($result_url_arr);
- $result_url_arr=url_same_del($result_url_arr);
- #var_dump($result_url_arr);
- if(is_array($result_url_arr)){
- $result_url_arr=array_unique($result_url_arr);
- foreach($result_url_arras$new_url) {
- fputs($fp_puts,$new_url."\r\n");
- }
- }
- }while($current_url=fgets($fp_gets,1024));//不断获得url
- preg_match_all("/<a[^>]+href=[\"']([^\"']+)[\"'][^>]+>/",$spider_page_result,$out);
- #echoa href
- #var_dump($out[1]);
- ?>
Tags: 爬虫 轻量级
相关文章
- ·php判断搜索引擎蜘蛛爬虫的方法整理(2018-09-14)
- ·PHP能写爬虫吗?(PHP实现爬虫技术示例)(2020-02-25)
- ·PHP实现简单爬虫的方法(2021-06-14)
- ·PHP一个简单的无需刷新爬虫(2021-11-03)
- ·PHP轻量级数据库操作类Medoo增加、删除、修改、查询例子(2021-03-09)
- ·PHP实现一个轻量级容器的方法(2021-11-06)
推荐文章
热门文章
最新评论文章
- 写给考虑创业的年轻程序员(10)
- PHP新手上路(一)(7)
- 惹恼程序员的十件事(5)
- PHP邮件发送例子,已测试成功(5)
- 致初学者:PHP比ASP优秀的七个理由(4)
- PHP会被淘汰吗?(4)
- PHP新手上路(四)(4)
- 如何去学习PHP?(2)
- 简单入门级php分页代码(2)
- php中邮箱email 电话等格式的验证(2)