700字范文,内容丰富有趣,生活中的好帮手!
700字范文 > php爬取邮箱 SAS爬虫的简单应用-爬取帖子下的邮箱 给他们发一封邮件...

php爬取邮箱 SAS爬虫的简单应用-爬取帖子下的邮箱 给他们发一封邮件...

时间:2021-07-04 04:45:15

相关推荐

php爬取邮箱 SAS爬虫的简单应用-爬取帖子下的邮箱 给他们发一封邮件...

前一段时间,看到了某些帖子下,有好多邮箱,然后我就想啊,如果我能给这些邮箱发一封邮件邀请关注我公众号,我的关注是不是会蹭蹭的往上涨...那么问题来了,如何可以批量get到网页上的邮箱呢?于是关于“SAS爬虫”这篇文章诞生了...(我知道的仅仅是一点皮毛,但也不妨我用SAS获取了一堆邮箱....)其实不太知道这算不算爬虫,姑且叫爬...

原理

SAS中获取网页上信息的原理其实很简单,就是将网页上的html代码给导入进数据集中,然后利用一定规律来获取自己想要的提取的信息...(目前个人浅显的理解),那么如何来将网页的代码直接导入的数据集中呢,见如下代码...

filename temp url "/thread-6046909-1-1.html";

data a;

infile temp;

input fname $char2000.;

run;复制代码

这样就能将网页的代码给鼓捣到数据集中了....还是看一下数据是啥样的....

-2-23 19:51:01 上传

下载附件 (120.63 KB)

就上面的那个样子,然后就需要在这样杂乱无章的字符串中准确的提取邮箱,首先想到的是邮箱的标志是啥(

这个的规律在:页面每加一页,倒数第二个1就加1;

在来看看某贴吧的规律:(倒数第二个数字代表帖子的ID,倒数第一个数字代表页面)

/p/4910914860?pn=1

规律就是:每增加一页,倒数第一个数字就加1;

知道了规律那么一切就都好操作了,小编技术还比较low,无法自动获取一个帖子到底有多少页,所以每个帖子的ID,或者页码都是小编人工去设置的..当然页码可以设置稍大一点也是无所谓的...那么就来看看小编这个循环是怎么写的...

%macro gturl(id=,n=);

data ds_url;

length urlpath $200.;

do i=1 to &n.;

urlpath=strip('"/thread-&id.-')||strip(i)||strip('-1.html"');

call execute(strip("filename temp")||strip(i)||" url "||strip(urlpath)||';');

call execute(strip("data ds_")||strip(i)||strip(";infile temp")||strip(i)||";input fname $char2000.;run;");

output;

end;

run;

data final;

set %do i=1 %to &n.;%sysfunc(compress(ds_&i.)) %end;;

run;

%mend;

%gturl(id=6046909,n=54);复制代码

如上,在编写过程的前期的一段小程序,将指定帖子下面的54个页面的全部捣腾到数据集里面去,最后合并成一个叫final的数据集...直到此处,我们第一步就完成了,那么就要开始第二步,利用正则将邮箱提取出来,前面已经知道邮箱的规律([url=mailto:XXX@]XXX@) 在这里,XXX 可以是[0-9]中的任意数字,[a-zA-Z]中的任意字符,而且还可以是包含[-_.]特殊字符的字符串,长度也不固定,这样,我们就可以基本确定了邮箱的规律,那么就需要用语言告诉程序,我们的规律是什么...接下来就看看程序是写的...(我正则用的不好,如有错误还请指正...)

data final;

set final;

len=length(fname);

_lst=find(fname,'.com');

if _lst=0 then delete;

_em1=substr(fname,1,_lst)||strip("com");

POSITION1 = PRXMATCH('/([A-Za-z0-9]|[-_.])+@([A-Za-z0-9]|[-_.])+(.com)/',_em1);

final=substr(_em1,POSITION1);

keepfinal;

run;复制代码

代码较长的那一行,就是正则在此处的应用,找出符号这样规则的其实字符,然后利用substr开始截取...

拼凑

Macro其实就是将多个零件进行组装实现某个功能,那么知道了前面的原理和各个知识点,就可以将其组装到一起,在后面的使用过程中不断优化从而形成一个比较好的宏...那么就来看看此处的组装...

%macro gt_em_ds(lib=,dsn=,id=,st=1,en=,desc=);

options nofmterr compress=yes missing='';

data ds_url;

length urlpath $200.;

do i=&st. to &en.;

urlpath=strip('"/thread-&id.-')||strip(i)||strip('-1.html"');

call execute(strip("filename temp")||strip(i)||" url "||strip(urlpath)||';');

call execute(strip("data ds_")||strip(i)||strip(";infile temp")||strip(i)||";input fname $char2000.;run;");

output;

end;

run;

data final;

set %do i=&st. %to &en.;%sysfunc(compress(ds_&i.)) %end;;

if find(fname,'@')>0;

len=length(fname);

_lst=find(fname,'.com');

if _lst=0 then delete;

_em1=substr(fname,1,_lst)||strip("com");

POSITION1 = PRXMATCH('/([A-Za-z0-9]|[-_.])+@([A-Za-z0-9]|[-_.])+(.com)/',_em1);

final=substr(_em1,POSITION1);

keepfinal;

run;

proc sort data=final out=final_a(keep=final) nodupkey;

by final;

run;

data &lib..&dsn.(label="&desc.");

set final_a;

where ^missing(final);

run;

proc datasets lib=workmemtype=data nolist;

save final;

quit;

%mend;参数的介绍:/*********************************************************

LIB :输出的数据集存放的逻辑库名称

DSN :输出数据集名称

ID:帖子ID

ST:开始的页面(便于后期再一次获取时重复了前面的获取的页面)

EN:结束的页面

DESC :数据集Label 可以加一个描述

***********************************************************/

/*/thread-6046909-1-1.html/thread-6046909-54-1.html*/%gt_em_ds(lib=work,dsn=rtable_1,id=6046909,st=1,en=54,desc=%str(资料));复制代码

那么来看看这个宏执行后提取的效果:

-2-23 19:52:51 上传

下载附件 (15.79 KB)

提取的准确率还是特别的高,小编从某论坛的某些帖子下一共提取了900个邮箱左右,从某吧的一些帖子下一共提取了1000多个邮箱,最终去重获得邮箱个1881个...

这几天发邮件发现,提取的正确率大概95%+

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。