搜索资源列表
nicewords_2.0.0128_for_3790_4659.tar.dezend_cc_php
- Nicewords-Dzend版 Nicewords是由工作在顶级门户网站的几名资深高级工程师利用爬虫技术(蜘蛛机器人,spider)、分词技术和网页萃取技术,结合白帽SEO(规避了一切风险的搜索引擎优化),利用URL重写技术、缓存技术,使用PHP语言开发的一套能根据设置的关键词自动抓取互联网上的相关信息、自动更新的WEB智能建站系统。利用NiceWords智能建站系统,只需要在配置页面上设置几个关键词,NiceWords就能全自动
MAIYIGO采集程序
- MAIYIGO采集程序 ·智能全自动建站系统:你要做的仅仅是设置几个关键词 ·全自动更新:MAIYIGO自动寻找信息,随时自动更新 ·在线的WEB系统:无须安装软件,买个空间就能用 ·非作弊:我们不要关键词堆砌,不要作弊,我们是正规站! ·会上网就会使用:无需懂任何网站建设知识 ·自动赚钱的机器:放上广告,在家睡觉!等着赚美元 MAIYIGO是由工作在顶级门户网站的几名资深高级工程师利用爬虫技术(蜘蛛机器人,spider)、
nicewords4.5中文版
- Nicewords是由工作在顶级门户网站的几名资深高级工程师利用爬虫技术(蜘蛛机器人,spider)和分词技术,结合白帽SEO,利用URL重写技术、缓存技术,使用PHP语言开发的一套能根据设置的关键词自动抓取互联网上的相关信息、自动更新的WEB智能建站系统。利用NiceWords智能建站系统,只需要在配置页面上设置几个关键词,NiceWords就能全自动的生成一套能自动更新的网站了。 NiceWords最主要是解决了自动建站的问题。
nicewords_2.0.0128_for_3790_4659.tar.dezend_cc_php
- Nicewords-Dzend版 Nicewords是由工作在顶级门户网站的几名资深高级工程师利用爬虫技术(蜘蛛机器人,spider)、分词技术和网页萃取技术,结合白帽SEO(规避了一切风险的搜索引擎优化),利用URL重写技术、缓存技术,使用PHP语言开发的一套能根据设置的关键词自动抓取互联网上的相关信息、自动更新的WEB智能建站系统。利用NiceWords智能建站系统,只需要在配置页面上设置几个关键词,NiceWords就能全自动
NiceWords
- Nicewords是由工作在顶级门户网站的几名资深高级工程师利用爬虫技术(蜘蛛机器人,spider)、分词技术和网页萃取技术,利用URL重写技术、缓存技术,使用PHP语言开发的一套能根据设置的关键词自动抓取互联网上的相关信息、自动更新的WEB智能建站系统。利用NiceWords智能建站系统,只需要在配置页面上设置几个关键词,NiceWords就能全自动的生成一套能自动更新的网站了。 您要做的仅仅是设置几个关键词,其他的一切交给NiceW
spider
- 工具说明: 1.类文件的作用是监控搜索引擎爬虫对网站的操作。 2.本类为php代码,只适用于php系统的网站。 3.代码没有使用到数据库,直接把记录写在文本文件中,请在根目录建立spider文件夹。 4.代码产生的记录,仅供参考,并不保证包含所有的记录,因为没有运行到本代码的文件是不会记录的。 5.本代码为免费代码,可以随便复制,修改使用,但是希望能保留一点我的版权信息。 使用方法: 请将需要统计的页面
Web-Crawlers
- 网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动的抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁,自动索引,模拟程序或者蠕虫。 -Web crawler (also known as web spider, robot, in the middle of the FOAF community, more often referred to as Web C
startbbs_v1.0.0
- 自主开发的友情链接源代码,完全免费。主要有以下功能: 1.建立一个适合外贸网站的组件,可以让访问者自己提交网址,在提交的时候自动检测是否已经加了您的我网站信息,为您带来访问者; 2.可以自行设计网站目录的分类,分类数以及层级没有限制; 3.可以自行设计模板(FrontPage),以便与您现有的网站风格一致;4.可以自行设置广告位; 5.后台一键检测友情链接方是否保持链接到您的网站,对于已经删除您的网站,您可以给予隐身或
PHPCrawl
- 使用PHP脚本编写的一个网络爬虫,用来抓取对应网站的一些基本信息。-A web crawler using PHP scr ipting to grab some basic information of the corresponding website.
songlist
- 本源码是采用php编写的一个简易网络爬虫,能够抓取酷狗音乐网的精选集的歌曲信息。-The source code is written using a simple php web crawler can crawl song information Cool Dog Music Network selection set.
sjsycj_v3.1.3
- 采集WeCenter框架插件,云端在线智能爬虫/采集器,基于分布式云计算平台,帮助需要从网页获取信息的客户快速轻松地获取大量规范化数据。操作简单,无需专业知识。降低数据获取成本,提高效率。任务完全在云端不间断运行,不用担心关机或者断网。-Acquisition WeCenter fr a me plugin, the cloud line intelligent crawlers/collector, based distributed
python internet worm
- 这是新浪微博爬虫,采用python+selenium实现 主要爬取内容包括: 新浪微博手机端用户信息和微博信息。 用户信息:包括用户ID、用户名、微博数、粉丝数、关注数等。 微博信息:包括转发或原创、点赞数、转发数、评论数、发布时间、微博内容等。 安装过程: 1.先安装Python环境,作者是Python 2.7.8 2.再安装PIP或者easy_install 3.通过命令pip install selenium安装selenium
phpspider
- 基于php的爬虫,内置了拉勾网招聘职位等信息(web crawler based on PHP)
aqi_v8.0
- 爬虫小程序,爬取各城市pm2.5信息,并记录。。。。。。。(Crawler small program, climb the city PM2.5 information, and record.)
yide_v1.7 (1)
- 使用PHP脚本编写的一个网络爬虫,用来抓取对应网站的一些基本信息。(A web crawler using PHP scr ipting to grab some basic information of the corresponding website.)