admin 管理员组

文章数量: 887007


2024年2月29日发(作者:log4j2环形队列)

Scrape Box中文教程-Lion

Scrapebox中文教程

Scrapebox是一款批量自动博客评论以及博客地址收集软件,广泛被黑帽 SEO应用。利用内部链接购买价格仅为$57美元,相比昂贵的 XRumer,虽然性能上有较大弱点,但是性价比非常不错。

低廉的价格使 scrapebox迅速风靡,在群发软件中,怎么高效地让自己的评论突破 wordpress的审核系统,这个才是使用这个软件的精华所在。Scrapebox的博客地址收集部分等其他功能也相当不错,这点让 Scrapebox已经变得不那么是一块群发软件了,而是一块必备的 SEO小工具的集合,素有 SEO界的瑞士军刀之称。

1

Scrape Box中文教程-Lion

目录

Scrapebox中文教程 ............................................................................................................................... 1

目录 ........................................................................................................................................................ 2

第一部分 Scrapebox功能表中文翻译 ............................................................................................... 3

一、菜单栏 ..................................................................................................................................... 3

二、Sb主界面 .............................................................................................................................. 12

第二部分 Scrapebox基本功能的使用 ............................................................................................. 25

一、寻找keywords ...................................................................................................................... 25

二、搜刮list ................................................................................................................................. 27

三、发送blog list ......................................................................................................................... 27

第三部分 Scrapebox操作技巧-转载 ............................................................................................... 28

一、 SrapeBox harvesting方法一 ............................................................................................ 28

二、ScrapeBox的使用心得 ....................................................................................................... 29

三、ScrapeBox 实战:每天2万条 ............................................................................................ 30

四、Footprints是什么 – 利用footprints寻找外链资源 ......................................................... 32

五、ScrapeBox技巧教程 ............................................................................................................. 34

六、代理搜刮技巧 ....................................................................................................................... 35

七、comments技巧 .................................................................................................................... 35

八、发送list技巧 ........................................................................................................................ 36

九、寻找blog list技巧 ................................................................................................................ 36

第四部分 插件的一些说明 ................................................................................................................. 38

我的操作方法: ................................................................................................................................... 40

2

Scrape Box中文教程-Lion

第一部分 Scrapebox功能表中文翻译

第一部分,先来给大家把 ScrapeBox的界面各个列表和按键的功能做个简单的翻译和说明。

一、菜单栏

1、Settings设置

1

Adjust Maximum Connections:线程设置,SB○各项功能的线程设置均在这个选项里,见下图。

3

Scrape Box中文教程-Lion

Adjust Timeout Settings: SB各项功能的超时时间设置。

4

Scrape Box中文教程-Lion

2Adjust RND Delay Range: SB的延时时间大小设置。 ○

3Set country or origin for BlogEngine:设置评论博客的国家。○

5

Scrape Box中文教程-Lion

4Post only using slow commenter:仅用慢发模式发送评论 ○5Use slow commenter accurate Mode:使用慢发精确模式 ○6Skip slow commenter for …:对 WP和 MT的评论跳过慢发模式 ○7Start slow commenter…:在快发结束后自动启用慢发模式 ○8Enable Learning…:在慢发模式中启用学习模式数据库 ○9Use nulti-threaded harvester:使用多线程收割.有很多人说多种收割○方式。

10Random ○comment blog poster list:从博客列表中随机抽取发送评论。

11Hide toolbar when minmized: 当最小化时不显示工具条。 ○12Ask confirmed when exit:当推出时请求确认。 ○6

Scrape Box中文教程-Lion

2、Options选项

1Name your instance of scrabox:给你的 SB起一个单独的名字。因○为 SB是可以同时运行多个的,这样你就能很容易分清楚每个SB是给哪一个网站发的.比如 S1,S2,SB-POST,SB-PING等。

2RSS XML Export Settings:RSS导出的设置。

○3Use Custom User Agents:使用当前设置user agents。

○4Edit User Agents:编辑user agents(用户代理),这个可以去百度或○者 google,很多列表。

7

Scrape Box中文教程-Lion

5Confirm Delete:当你进行删除操作时会提示你是否删除。

○6Creat Desktop Shortcut:创建桌面快捷方式。

○7Automatically Remove Dulicate Domains:自动删除重复域名。如果○你想按照重复url来筛选列表,别选此项。

8Auto Recovey:针对SB的慢发模式,可以选择软件死机后自动重新继○续。○9Check for addon Updates…:程序启动时检查插件是否有更新。

10Slow comment…:让慢发有搞成功率。

○11Set up email notifacation server:设置邮件激活服务器,包含相○关的邮件账号,端口,pop3、smtp地址信息。

8

Scrape Box中文教程-Lion

3、Black List黑名单列表

发送列表的黑名单.建议勾选第二个,本地+远程黑名单模式。至于edit

local blacklist就是编辑本地的blacklist。

4、Tools工具

1Open Name&email Generator:小工具可以创建姓名和 email列表。○都是发评论时需要的。可以设置生成name的数量和邮箱后缀(目前只有yahoo可以选择),可以设置name中是否包含数字和数字的位置。

9

Scrape Box中文教程-Lion

2Delete Name lists:删除姓名列表。

○3Learn mode(只有在慢发时才可以用) database editor:SB的学习○模式数据库编辑器,也算高级功能了。只要是学习过的留言方式这里都会出现,可以在这里修改。

10

Scrape Box中文教程-Lion

5、Catcha验证码(付费服务)

Setup automatic Captcha Solving:设置自动识别认证码的账号密码。Enabled Automatic …:慢发模式下启用认证码自动识别 enable。Automatic …(unblocking):在代理服务器管理中开启认证码自动识别。

11

Scrape Box中文教程-Lion

6、Addons插件

最后一个是 ScrapeBox的插件列表。

二、Sb主界面

从sb主界面上可以看出sb主要有havester、url havested、manage lists、select Engines & Proxies和comments poster几大功能模块

12

Scrape Box中文教程-Lion

13

Scrape Box中文教程-Lion

1、 Harvester(收割模块)

这一块主要是SB搜刮list的设置区.SB搜刮搜索引擎的列表使用的是foot

Print+关键字的模式。Footprint就是上头的四个选项:custom footprint(普通的footprint)、wordpress、Blogengine 和movable Type。关键字就是下面的列表.具体功能如下

1、Custom Footprint:这里就是自定义搜索方式在搜索引擎查询你想要找的东西。比如你要搜刮VBB论坛的列表,就可以在选了此项后,在上面的空白栏输入”Powered by vBulletin”这里要补充说下的就是,使用自定义

Footprint。你要首先熟悉Google的高级搜索的用法,比如 site: 、inurl:等等。如果不熟的留意以后的章节,我会有介绍,不过都是一些比较高级的用法,基础的还是要你自己GG。

14

Scrape Box中文教程-Lion

2、Wordpress Blogs;BlogEngine Blogs;Movable Type Blos,是SB已经集成设置好 FootPrint的三个最流行的 blog程序的 Footprint.根据你自己的的需要进行选取.

3、Keywords:这里就是输入关键字的地方.直接输入你整理好的关键字列表,或者使用SB的关键字抓取功能。

import:从文档中导入你的关键字列表。

Scrape:使用 SB的关键字抓取,进入后在左边输入你的关键字,按

Scrape即可获得更多的相关关键字。

在enter keywords的框中输入或者导入keywords资源,再点击scrape就可以搜刮关键字资源了。

15

Scrape Box中文教程-Lion

Save:保存你的关键字列表到文档 Clear:清楚上面的关键字列表

2、Select Engines & Proxies

16

Scrape Box中文教程-Lion

这一块主要是搜索引擎相关设置和代理设置。

1,Google、Yahoo、Bing、Aol是可以搜刮列表的四个搜索引擎。你可以选择单个或多个进行搜刮。在 GOOGLE旁边有个按钮,还可以自定义设置 GOOGLE的不同国家的搜索,比如 等。你自己的需求进行设置。

2,Use Proxies:选择是否使用代理。需要说明一点,这个选项是个全局的选项,不光是搜刮列表,也包括发送评论等主界面的任何功能。

3、Results:这个是设置每个关键字你所要抓取的列表数量。如果你需要大量的列表,可以设置大一点 ,500甚至1000。

4、Time:这个按钮也算是搜索引擎高级搜索的一部分,可以选择在某段时间内的搜索结果。具体设置也是按个人需求。

5,下面四个按钮是管理代理服务器的。Manage Proxies可以进入管理代理服务器设置,抓取,验证,整理代理服务器列表。Load:从文档载入代理服务器列表。Save:将代理服务器列表保存到文档。Clear:清楚当前代理服务器列表

17

Scrape Box中文教程-Lion

3、URL’s Harvested

这一块主要是控制列表的搜刮活动对搜刮到的列表的操作,包括整理,导入导出等。

1,先说下面的四个按钮:

1Start Harvesting:开始搜刮列表。

○2Stop Harvesting:停止搜刮列表。

○3List:这个按钮主要是对搜刮到的列表进行转移操作。对象都是下面见○下图:

18

Scrape Box中文教程-Lion

分别的意思是把搜刮list转移到待发评论的list,把搜刮list加入到待发评论的list,把搜刮list转移到待发评论的list中的站点,把搜刮listjiaru 到待发评论的list中的站点.

4Transfer URL’s to blogs list for Commenter:把搜刮到的列表转移到○下面 comment Poster的”Blog Lists” Add URL’s to Existing blogs list for

commenter:转移的位置同上,区别是这个选项适用于你已经在下面选择了你的 blog列表,并讲现在搜刮到的列表增加到你已经选择的 blog列表里

19

Scrape Box中文教程-Lion

Transfer URL’s websites list for commenter,Add URL’s:这两个选项是对下面的 Comment Poster中”Websites”这一栏的数据进行操作,Transfer/Add的功能同上

2,Manage Lists(这一块右侧那一排)

1Remove Duplicates:删除搜刮到的列表中的重复地址的选项.点击此○按钮,从上到下三行,分别为:

(1).按照url删除重复:也就是说整个列表中,一样的url地址都是唯一的.

(2).按照域名删除重复:也就是说,整个列表中,所有包含同一个域名的地址最终只剩下一个。

(3).分割重复域名列表地址:这一项的主要目的,就是在你一个列表的域20

Scrape Box中文教程-Lion

名保持唯一的同时,不浪费这个列表中同域名的其他url,把其他的 url保存到另外的文件里以便你以后使用。比如一个列表中包含

/和 /,如果你只用第二项按域名重复 ,就只剩下 /,当你选择这个第三行时,你的当前列表中就会只剩 /,但是 /并没有被删除,而是保存在你按了split这个选项以后,让你保存到的那个文件里.可能大家听得有些晕了,呵呵。

2Trim to Root:整理列表中的url为root格式,也就○是,/会被整理成 的格式。

3Check Pagerank:查询PR.里头两个选项,从上到下为按URL查询。

○PR,按域名查询PR Check indexed:查询。

url是否被收录.从上到下为 GOOGLE,YAHOO,BING是否被收录。

4Grab Emails:提取email列表.从上到下为从搜刮列表中提取,从本地文○件中提取。

5Import URL List:导入url列表功能。

○21

Scrape Box中文教程-Lion

上到下分别为:

(1).导入并代替当前列表。

(2).导入并增加到当前列表。

(3).选择列表进行比较,并删除当前列表中与你选择的列表文件有重复的list。

(4).同上,只不过删除重复的方式不是按url而是按domain。

(5).从粘贴板复制列表url并且代替当前列表。

(6).从粘贴板复制列表url并增加到当前列表。

6Export URL List:导出搜刮列表的操作.从上到下为:

(1)将搜刮到的列表保存到txt文件。

(2).将搜刮到的列表保存到txt文件并进行按行数分割成多txt文件。

(3).保存到HTML文件。

(4).保存到xls文件。

(5).保存到rss xml列表。

22

Scrape Box中文教程-Lion

(6).添加到已存在的文件中。

(7).复制列表url到粘贴板。

(8).导出所有indexed的url.此项功能当你在使用了”check indexed”功能后使用。

(9).导出所有not indexed的url,使用同上。

7import/Export URL’s &PR:对已经查询过 PR的 list的导入导出.从上○到下:

(1).导出为txt格式

(2).导出为CSV格式

(3).导出为HTML格式

(4).导出为EXCEL格式

(5).从txt文件导入带 PR的 list

(6).从txt文件增加

23

Scrape Box中文教程-Lion

4、Comment Poster

这一块主要是发送评论的相关操作选项和设置。Faster poster、slow

poster和manual poster分别是快发、慢发和人工发模式。

其他几个是出了发送评论外SB的其他操作模式:

(1) Ping Mode:这个要跟大家讲一下,SB里的 PING不是平时说的 blog里的那个 PING.是类似 PRSTORM的模式.简单说就是模拟从你的站到目标站的访问。

(2) RSS:这个就是在blog中说的PING服务。

(3) TrackBacks:模拟发送trackback。

(4) Check links:检查你的外联是不是在列表中.也就是检查你发送的评论最终有多少被通过。

Names、Emails、Websites、Comments和Blog Lists:

这个就不用多说了吧,很容易的。翻译过来就是,姓名,邮件地址,你的网站,评论内容。这些内容也是你即将要发送评论的列表,所以要认真填写。

24

Scrape Box中文教程-Lion

第二部分 Scrapebox基本功能的使用

这一部分主要是简述如何寻找keywords,寻找list,如何使用list。

一、寻找keywords

寻找关键词的方法有很多,市场上也有很多关键词工具。下面简单的描述如何使用google adwords+sb来寻找关键词,其他关键词分析软件以此类推。

(1) 打开google adwords(/),进入keywords tools。

(2) 在关键词分析工具在输入一个相关的词,导出keywords

list。

25

Scrape Box中文教程-Lion

(3) 在excell中修改,注意把第一行去掉,并且把中文的去掉,sb不支持中文暂时。

(4) 将keywords导入sb。

26

Scrape Box中文教程-Lion

(5) 使用sb的keywords scraper功能。目前只能把关键词复制进去。关键词搜刮结束之后,去掉重复的,导入到keywords list中,点击dups再一次去掉重复的。

二、搜刮list

有了keywords list,就可以搜刮blog post list了。选择blog类型,一般选择wordpress。再点击starting harvesting就可以了。搜刮结束后去掉同一个网站重复的或者去掉同一个网站的,然后导出备份。

三、发送blog list

选择name ,email,Comments ,website,blogs list,选择发送模式,点击start,开始发送。注意在发送的途中点击Abort,就暂停了,再开始的话就只能从头开始发了。

27

Scrape Box中文教程-Lion

第三部分 Scrapebox操作技巧-转载

这一部分主要是转载从网络上收集的讲述sb技巧的文章,由于收集时间过久,来源已不明。

一、 SrapeBox harvesting方法一

1) First step is to locate a blog that has already been spammed.

This is how you are going to find your backlinks. Blogs that already

have spammed comments on usually means two things. First; the blog is

either auto-approve or else the owner doesn’t care what goes on the blog.

Second, your comment is much more likely to stick.

2) Once you have found a blog with spammed comments, you need to open

up a txt file and then copy and paste the spammers links into the file.

Do it in this format:

HTML Code:

LINK:

LINK:

Keep building this list until you have at least 40 links. Shouldn’t

take long at all.

3) Open ScrapeBox and paste your list into the harvester. Select Yahoo

as the search engine. Make sure you use proxies. Now start harvesting.

What happens is that ScrapeBox will use Yahoo to get all the

backlinks the spammers have used. In some cases this will be hundreds

of URLs per spammer. If I start with 40 spammer URLs ScrapeBox will

usually return between 15k and 20k results. Remove duplicate URLs. You

may lose as many as 5k URLs or more. Doesn’t matter.

4) Open the ScrapeBox Blog Analyzer. Load your harvested results

into the Blog Analyzer and start it running. This may take quite a while

to complete. Once done, sort the results by platform, then save the

results as an Excel file.

28

Scrape Box中文教程-Lion

5) Open the saved file into Excel. You are looking for all platforms

that are compatible with ScrapeBox. IMPORTANT, make sure you choose

blogs that are open to comments and have NO spam protection. Copy all

usable blogs into a text file. Name the file ‘Sorted for ScrapeBox’ or

some such.

6) You should end up with between 2k and 5k URLs that are usable.

In my experience you will have around a 50% success rate when posting

to these URLs. And around 10% to 25% will stick.

二、ScrapeBox的使用心得

ScrapeBox(以下简称SB)是一个群发外链的软件,相信做英文SEO的都应该知道,这里就不多讲述了,有兴趣的同学可以去Google一下。

总结一下我自己的使用心得:

由于每次只能搜索100万的列表,所以如果关键词列表大的话,分开几次来扫,每次扫完可以导出没完成的关键词继续扫。

2.扫来的List,一般100万去掉重复的话大多数时候是40-70W不等(我本人只扫Google的)

3.如果是新站,且有几十万的List,我不建议全部用来发Main Domain,一般Main Domain我是只发有PR的站,SB有个插件是Sitemap Scraper,把Sitemap的文章地址都复制下来,然后用SB发文章页的链接。

t的列表一定要做好,这个跟成功率很有关系(这里的成功率不是指SB中的,是最后获得批准的成功率),大家可以到自己的其中一个博客去找一些看上去像样的评论,然后SPIN,没工具的手动SPIN也可以,很简单!最好至少准备50条以上的SPIN评论。

和INDEX列表,用SB自带的基本也就可以。

6.发完外链后,把成功和失败的保存起来,把失败的再Fast Post一次,然后再把成功的保存起来……慢慢的,你的成功率高的List就越来越多。

7.成功的List,可以过1-2天去用Ping功能去Ping一下。

8.介于SB的强大,现在很多.EDU WordPress博客都关闭评论或者注册再评论了。大家搜索的时候在Footprint处要下点心思

的话,大部分时候VPS就可以处理过来,当然你站多的话,还是建议用独立服务器,我的独立服务器同时开4-5个SB跑没有问题,平均每天至少搜索几百万的List,搜索List挺占用流量的,选购VPS的时候要注意29

Scrape Box中文教程-Lion

看一下。

里很多插件都很强大,大家不要老忽略了。

ack的站点跟你的站点主题相符的话,能大大提高成功率。

可以用第三方验证码识别,这个可以大大提升外链的质量,因为有验证码的站点,可能Autoapprove,还有就是外链质量会更高。

其实也不用老发自己的网站或站内页面,假如我们把文章提交到文章站后,把文章页面也发一下,也能提升关键词排名。

15.最后就是,SB其实对于站群规模不大的,还是很够用的,把他用好他就是个活宝,别老限制在搜刮List和发留言的功能上。

三、ScrapeBox 实战:每天2万条

一,前期准备

1,Proxy:

代理的质量和数量会影响到SB的发送质量和速度.建议寻找更多的代理,更多的匿名代理.如果你能找到的代 理很少,最好减少线程和发送的url数量,否则可能会出现搜刮list卡住,发评论速度越来越慢等现象.每次大批量发送和搜刮之前,及时更新代理列表.

TIPS:出钱买的代理质量肯定比自己搜的高.

除了SB自带的代理搜刮,有条件的可以自己吸附.如proxyfire等工具.相关资料请自行baidu或者gg

2,Keyword:

用来搜刮list的关键字列表,可以用SB自带的Keyword Scraper,也可以自行用Market Samurai或者Keyword elite等工具生成.

Tips:关键字的最终数量,以你所需要的发送url总量来计算.以我个人的做法,会给每个100W的list分配1500-2000个关键字.前提是你设置的每个关键字的搜刮数量为1000条.理论上 1500X1000会超过100W的限制,不过实际状况基本达不到,所以稍微多分配一点也没关系.

如果你获取到的关键字很少,或者需要更多的关键字,可以试试SB的keyword

scraper里的”Transfer results to keyword list”进行二次抓取.

二,Start Harvesting

SB有每次最多支持保存100W条的限制,所以如果你的关键字较多,建议分成N组.最后再汇总.这时需要分割关键字列表,推荐个小工具:txtkiller.如果你关键字列表有 1W个词,用这个工具按行分割成5份,那么每个子列表就有30

Scrape Box中文教程-Lion

2000个词供一次搜刮使用,很方便.具体下载百度吧,找得到.

关于线程:在代理足够的前提下当然越大越好,不过要注意你的服务器或者VPS的网络限制.我的vps是10Mbps 的网络,测试N次后我最终选择了125线程.当设置harvest为150线程时,流量的峰值会超过10M,VPS可能会暂时连不上.说到 这还是推荐个监控流量的小工具:DU Meter.老规矩,自己百度吧,

关于harvesting的搜索引擎类型,一般我只用google,除非最终的数量达不到我的要求.原因很简 单,对于yahoo,aol等搜刮到的url不知道google是否收录过.如果其他兄弟有好的心得和经验,欢迎就此话题讨论.

关于list去除重复:因为我是一次只发一个站,所以一般我只用”remove

duplicate domains”.如果你发多个站,也可以尝试下”remove duplicate

Ulr’s”.一般我搜刮完去重复时,会有80-95%的url被干掉,别担心,这个属于正常现象

三,Start Posting

当你搜刮完所有的列表,并去重复后,剩下的就可以Posting了.一次发评论的数量,主要取决于你的代理质量和数量.另外感觉线程数也会多少影响到成功 率.就我个人而言一般用60-80线程一次发送5万的list,成功率基本都在20-30%之间,但也见群里的兄弟有50%左右的成功率,就此话题也欢迎 大家讨论啊.

四,一些数据和其他TIPS

因为其间很多操作需要等待,合理安排好时间,会帮助你每天发送更多的list.一些我自己用SB时的操作时间:搜刮一个2000个左右关键字,大概在20 分钟左右.发送一个包含5W LIST的评论,大概在3小时多一点.

设计好你保存数据的目录.多个网站,多个keyword列表,多个list列表,多个post列表.不要把所有数据都放在一起,不光是看着很乱,因为经常 会有导入导出等操作,手一抖可能你100W的list就要重新扫一次.

SB整理去重复,导入,导出,切换列表时,机子有时会反映很慢,或者干脆假死.留意随时及时的保存你的list.

记得发完评论后导出”Posted”的列表.好处:过段时间再用这个列表来check你的评论是否被通过.积累更多的容易通过审核的blog列表,会让你

以后再次发送更有效率

31

Scrape Box中文教程-Lion

四、Footprints是什么 – 利用footprints寻找外链资源

最近Sem9论坛上看到有些朋友问“Footprints是什么意思”,“如何利用footprints寻找外链资源”等此类问题,今天有时间这里整理下。

footprints可以理解为脚印,痕迹。比如一个通用的程序,模板等,都会留下同样的痕迹,我们可以利用这个痕迹,来抓取满足这些特性的网站。为什么要抓取这些网站?抓取了之后又有什么用?这些应该不需要解释吧。

以“powered by”这个最基础的footprint为例,基本上所有的cms,论坛,或者博客程序都会有这种footprint,一般都是处于网站页面的最底部,然后通常都是会链接到相关的官网。比如:

(以上3个截图就分别是discuz,WordPress,dedecms的“powered by”的footprint。)

然后再看一例,这里以pLog程序为例

“Add comment” “powered by plog”

当在Google里输入这个命令时,可以看到如下的返回结果:

32

Scrape Box中文教程-Lion

这些所出现的结果都包含你所输入的词组,我在这里所输入的查询语句不光只“powered by plog”的原因是并非所有的plog站都接受评论,站长可以选择将评论的功能给关闭。因为我的目的就是spam,所以这种不开评论的对我来说没意义,所以我在查询语句里加入了“Add comment”,以确保我搜刮的出来的网站是可以添加评论的。

这种查询语句你可以自己组合。一般来说,你所输入的footprint查询语句越复杂,你所能收割的网站数量会越少。但是那些没有用的网站你肯定不需要的,所以好好调整结合下查询语句,确保你能获得一个大的可用的list。

还有一点需要注意的,就是这些命令也许并不适用于所有的搜索引擎。不少Google的搜索指令在bing,yahoo等其他搜索引擎里没法使用。所以这里你可以选择整两套footprints指令,一套专门针对Google的,一套是大家都能适用的。

专门针对Google的搜索指令可以参考

/

或者

/advanced_

以上便是footprints的一些解释,那么我们怎么知道应该搜什么语句才能找到我们所需要的目标?怎么利用footprints去寻找外链资源?

很简单,我们只需要观察几个这种类型的站,看下共同的特征就行。这种共同的特征,指的是只有这类网站才会有这样的特征,而适用其他类型程序的不会。

33

Scrape Box中文教程-Lion

首先是看下你所针对的程序平台的名字。看下页面上有没那种powered

by的信息,当然有的站可能会去除这些,这时你就需要看看其他的共同特征了,最典型的比如网站的导航,页尾等。

五、ScrapeBox技巧教程

说明:本技巧毫无技巧可言,只是为了彰显一下自己的刚开始错误做法,希望以后的青年不要步我的后尘。

有时候好不容易harvest出来一个主题的blog list,Fast Poster才20~30%的成功率,怎么办?

有时候SB发送不成功并不是目标网站真的不能发或者打不开,而是受到网络,机器的影响,因此我们会采取重复发送同一份列表的手段来提到成功数量。

以前我使用的是慢发模式。不愧是慢发,还真慢,5000条都要发个半天。于是果断放弃慢发,使用反复快发来解决成功数低的问题。

OK,正文来了,重复快发怎么操作?我们必须得把已经发过的URL地址从地址库中过滤出来,否则博主们有可能会收到连续N个评论链接到同一网站,大大降低审核通过率。于是操作应该是:

1.第一次发布列表A

2.完成发送后,把failed的导出到列表B

3.继续发送列表B

4.重复2和3,直到你满意为止(比如再也发不成功了)

5.在URL’s harvested中导入列表A,然后再Select the url lists to

compare,选择B

6.余下的就是成功发送的列表了,保存在列表A中去吧,然后过段时间检查即可

说一下我自己原来的sb方法:

1.发送列表A

2.完成后把posted保存在列表B-1

3.把Failed的保存到列表A

4.再发,把posted的保存到列表B-2(由于poster模块中的导出功能没有txt合并选项)

34

Scrape Box中文教程-Lion

。。。以此类推,经过N次后,再将N个列表B合并获得Posted的列表。

六、代理搜刮技巧

scrapebox 相信高做英文站,做黑帽的大部分人都用过.这款软件很好用,但是很多人发外联成功率不高,其实这跟大家用的代理有关,有的proxy

list 质量很高,成功率自然就上去了。

这里给大家介绍一下 scrapebox 搜索代理并验证的方法,在scrapebox

用关键词 +”:8080? +”:3128? +”:80? filetype:txt 来搜索,或者在这个关键词前面加上 最新代理 等都行,自己发挥想象。

第二种方法 首先你得在scrapebox里面装个Scrapebox Sitemap

scraper addon 插件 google 一下关键词

free proxy lists 或者 免费代理 ,先找到合适的代理站,然后把他们的放入插件里面查询,就会把他们,所有更新的代理全部拿到手了,然后在 scrapebox 代理下载 里面添加这些 url,搜索验证,ok。

建议在 现在proxyfire 里面搜索 验证代理,然后再在 scrapebox里面二次验证,这样效率比较高。

七、comments技巧

首先说明一下,本教程适合已经使用过ScrapeBox的好青年们,新手和观望人士阅读起来可能会有一点点困难。中间我会使用一些SB中的术语。

今天的小技巧是,利用TweetAttacks来抓取Tweet作为评论,听上去是否很有意思的呢。因为Tweet上面的内容几乎完完全全是用户自己发布的,具有很强的随机性和真实性。我把具体流程叙说一下:

1.打开TweetAttacks 1.5.4(这是唯一能用的破解版,新版本破解不能使用)

2.登入账号后,切换到Tweet Scraper模块

3.选择Tweet高级搜索界面,输入你想要的关键词,然后Ranger选择最大,保证有足够数量,语言选择Any Language(这边有点奇怪,只选英语有时候会没有结果,选择所有语言却能出现英文的结果)

4.搜索,只选择"Span"标记中的内容,其他的都不选,否则会抓到很多其他没用的内容

35

Scrape Box中文教程-Lion

5.收集,翻页,收集。。。重复这个步骤,直到收集完全或者收集到你满意的数字(我一般选择200条)

6.点击Send to Tweet Poster按钮,这时候界面会跳转过去

7.人工浏览一下收集的Tweet,选择"除去重复",然后人工检查,去掉过短的内容以及没意义的内容。点击保存。

,你获得了一份真人撰写的评论

9.打开SB,输入你刚才搜索的关键词,并且Scrape尽可能多的关键词

int选择intitle:"关键词",以提高评论页面主题准确率

11.开着代理Harvest吧。

12.得到最后的url列表后,选择刚刚保存的Tweet作为评论(如果你想在tweet中增加URL,可以在excle里面制作完成,很容易)

13.开始自动发送吧:)

八、发送list技巧

本技巧是我最近感觉比较有效的方法,这边说一下简要的流程,分享给聪明的青年们:

1.选词

2.收集20000+的URL

3.快发4~5次

4.保存发送成功的link check

5.把展现的保存

6.把展现的Trim to root

7.使用SB Addon中的Link Extractor获取更多的页面

8.如果你想只能发高质量页面你可以监测一下PR和OBL,删选下

9.快发3~4次

九、寻找blog list技巧

今天分享的东西其实很简单,很多教程上面都有,这边我做个图文版,更加清晰明了。如何利用Spammer来发外链。

36

Scrape Box中文教程-Lion

首先先打开一个被Spam的博客(这年头做个WP不被Spam才有鬼呢),我这边就拿我自己的博客为例好了,没什么人气,见笑了:)点击"Pending",都是最近有人发的spam,我把里面的网站地址一个一个复制下来。

把复制出来的url放入SB,量不多,去重后记得选择custom footprint,然后填写link:

然后在代理选项这边选择"Yahoo",使用代理,不用的话一会就收割不到咯。

开始收割,量少很快的,20~30秒就收割了2174个。

由于量少,我就不做什么检查了,去重后直接就开始发送咯,这边就不截图了。反复发送个几次。大概花个20~30分钟吧,把最后一次的fail的导出来。然后和完整列表对比。(参考资料: ScrapeBox技巧教程2)

然后可以做link check了,记住,不要一次check完就完事,因为由于网速原因,经常会有链接一时没打得开,所以正确做法是,把check完后,先把找到的链接导出来,再把response error的链接导出来,再检查,反复几次,花不了多少时间的,这样很影响最终你能发布的数量。下面这图是我最后一次check之前响应错误的URL,你看15个里面居然还有5个发布成功。

最后把几次link check的结果合并到一起,一共有53个,还算不错了。毕竟才发了几百条。

选择Trim to root,然后再去重,得到了43个unique的domain。里面有很大概率都是auto approval的博客了,这边就是我之前提倡花点时间重复检查链接的原因,如果不重复检查,这边可能只有20~30个,重复检查多花2~3分钟,效率直接提高了将近100%

把这些domain复制进harvester, 把footprint选成site:

这边收割出来的URL里面有很多没用的页面,我们可以简单的操作一下,提高待会发送的效率。这是SB新版本推出的功能,我觉得相当不错,去掉urls中包含/tag/,/category/,/?tag=, /?cat=, /?m=等等很明显的不是博文的页面。

这是我简单过滤后,去掉了将近一半的无用页面,这时候余下的内容都是相对精准的了,由于数量不多,我们还是可以直接发送吧。

最后看一下结果,发送成功了971个,就检查了一遍,一共586个找到了,估计多检查几次应该可以在700~800+。时间根据你的网络决定,本次试验大概花了1个半小时,如果你一次多找一些spam评论,最后数量还能提高不少哦。

37

Scrape Box中文教程-Lion

第四部分 插件的一些说明

Sb的插件比较多,更新也比较迅速,也都很有用,上个图先:

1、Scrapebox alexa Rank checker:

38

Scrape Box中文教程-Lion

也就是Alexa数据查询,这个可以批量查询。

2、Scrapebox alive checker:

检查网页是否存在。

3、Scrapebox audio player

音乐播放器

4、Scrapebox backlink checker:

Backlink检查工具

5、Scrapebox bandwidth checker

好像是测网速的

6、Scrapebox BE Moderated Filter

Blog engine类的博客分析工具。

7、Scrapebox blog Analyer

博客分析工具,可以分析出博客类型,是否包含验证码等等。

8、Scrapebox Dofllow/Nofollow check

博客导出链接分析工具

9、Scrapebox Domain Resolver

10、Scrapebox DupRemove

11、Scrapebox Fake pagerank checker

12、Scrapebox google competition Finder

13、Scrapebox google image Grabber

14、Scrapebox link Extractor

15、Scrapebox malware and phishing Filter

16、Scrapebox outbound link checker

17、Scrapebox rapid Indexer

18、Scrapebox sitemap Scraper

19、Scrapebox TDNAM Scraper

20、Scrapebox whois scraper

39

Scrape Box中文教程-Lion

我的操作方法:

1, 寻找list

2, 多站分时同时发

3, 导出posted & succes

4, 整合分析去重复

5, Backlinks check

6, Sitemap scraper

7, 大量发

40


本文标签: 列表 搜刮 评论 发送