搜索资源列表

  1. nicewords_2.0.0128_for_3790_4659.tar.dezend_cc_php

    0下载:
  2. Nicewords-Dzend版 Nicewords是由工作在顶级门户网站的几名资深高级工程师利用爬虫技术(蜘蛛机器人,spider)、分词技术和网页萃取技术,结合白帽SEO(规避了一切风险的搜索引擎优化),利用URL重写技术、缓存技术,使用PHP语言开发的一套能根据设置的关键词自动抓取互联网上的相关信息、自动更新的WEB智能建站系统。利用NiceWords智能建站系统,只需要在配置页面上设置几个关键词,NiceWords就能全自动
  3. 所属分类:WEB源码

    • 发布日期:2008-10-13
    • 文件大小:1102818
    • 提供者:zhou
  1. MAIYIGO采集程序

    0下载:
  2. MAIYIGO采集程序 ·智能全自动建站系统:你要做的仅仅是设置几个关键词 ·全自动更新:MAIYIGO自动寻找信息,随时自动更新 ·在线的WEB系统:无须安装软件,买个空间就能用 ·非作弊:我们不要关键词堆砌,不要作弊,我们是正规站! ·会上网就会使用:无需懂任何网站建设知识 ·自动赚钱的机器:放上广告,在家睡觉!等着赚美元 MAIYIGO是由工作在顶级门户网站的几名资深高级工程师利用爬虫技术(蜘蛛机器人,spider)、
  3. 所属分类:PHP源码

  1. nicewords4.5中文版

    1下载:
  2. Nicewords是由工作在顶级门户网站的几名资深高级工程师利用爬虫技术(蜘蛛机器人,spider)和分词技术,结合白帽SEO,利用URL重写技术、缓存技术,使用PHP语言开发的一套能根据设置的关键词自动抓取互联网上的相关信息、自动更新的WEB智能建站系统。利用NiceWords智能建站系统,只需要在配置页面上设置几个关键词,NiceWords就能全自动的生成一套能自动更新的网站了。   NiceWords最主要是解决了自动建站的问题。
  3. 所属分类:PHP源码

    • 发布日期:2011-08-16
    • 文件大小:2564010
    • 提供者:yvhitxcel
  1. nicewords_2.0.0128_for_3790_4659.tar.dezend_cc_php

    0下载:
  2. Nicewords-Dzend版 Nicewords是由工作在顶级门户网站的几名资深高级工程师利用爬虫技术(蜘蛛机器人,spider)、分词技术和网页萃取技术,结合白帽SEO(规避了一切风险的搜索引擎优化),利用URL重写技术、缓存技术,使用PHP语言开发的一套能根据设置的关键词自动抓取互联网上的相关信息、自动更新的WEB智能建站系统。利用NiceWords智能建站系统,只需要在配置页面上设置几个关键词,NiceWords就能全自动
  3. 所属分类:WEB源码

    • 发布日期:2024-10-07
    • 文件大小:1102848
    • 提供者:zhou
  1. NiceWords

    0下载:
  2. Nicewords是由工作在顶级门户网站的几名资深高级工程师利用爬虫技术(蜘蛛机器人,spider)、分词技术和网页萃取技术,利用URL重写技术、缓存技术,使用PHP语言开发的一套能根据设置的关键词自动抓取互联网上的相关信息、自动更新的WEB智能建站系统。利用NiceWords智能建站系统,只需要在配置页面上设置几个关键词,NiceWords就能全自动的生成一套能自动更新的网站了。 您要做的仅仅是设置几个关键词,其他的一切交给NiceW
  3. 所属分类:Linux/Unix编程

    • 发布日期:2024-10-07
    • 文件大小:193536
    • 提供者:王厚民
  1. spider

    0下载:
  2. 工具说明: 1.类文件的作用是监控搜索引擎爬虫对网站的操作。 2.本类为php代码,只适用于php系统的网站。 3.代码没有使用到数据库,直接把记录写在文本文件中,请在根目录建立spider文件夹。 4.代码产生的记录,仅供参考,并不保证包含所有的记录,因为没有运行到本代码的文件是不会记录的。 5.本代码为免费代码,可以随便复制,修改使用,但是希望能保留一点我的版权信息。 使用方法: 请将需要统计的页面
  3. 所属分类:WEB源码

    • 发布日期:2024-10-07
    • 文件大小:7168
    • 提供者:陆飞
  1. Web-Crawlers

    0下载:
  2. 网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动的抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁,自动索引,模拟程序或者蠕虫。 -Web crawler (also known as web spider, robot, in the middle of the FOAF community, more often referred to as Web C
  3. 所属分类:搜索引擎

    • 发布日期:2024-10-07
    • 文件大小:1024
    • 提供者:llz
  1. startbbs_v1.0.0

    0下载:
  2. 自主开发的友情链接源代码,完全免费。主要有以下功能: 1.建立一个适合外贸网站的组件,可以让访问者自己提交网址,在提交的时候自动检测是否已经加了您的我网站信息,为您带来访问者; 2.可以自行设计网站目录的分类,分类数以及层级没有限制; 3.可以自行设计模板(FrontPage),以便与您现有的网站风格一致;4.可以自行设置广告位; 5.后台一键检测友情链接方是否保持链接到您的网站,对于已经删除您的网站,您可以给予隐身或
  3. 所属分类:WEB源码

    • 发布日期:2024-10-07
    • 文件大小:529408
    • 提供者:sdqpie
  1. PHPCrawl

    0下载:
  2. 使用PHP脚本编写的一个网络爬虫,用来抓取对应网站的一些基本信息。-A web crawler using PHP scr ipting to grab some basic information of the corresponding website.
  3. 所属分类:WEB源码

    • 发布日期:2024-10-07
    • 文件大小:106496
    • 提供者:李嘉
  1. songlist

    0下载:
  2. 本源码是采用php编写的一个简易网络爬虫,能够抓取酷狗音乐网的精选集的歌曲信息。-The source code is written using a simple php web crawler can crawl song information Cool Dog Music Network selection set.
  3. 所属分类:Web服务器

    • 发布日期:2024-10-07
    • 文件大小:109568
    • 提供者:谢泽辉
  1. sjsycj_v3.1.3

    0下载:
  2. 采集WeCenter框架插件,云端在线智能爬虫/采集器,基于分布式云计算平台,帮助需要从网页获取信息的客户快速轻松地获取大量规范化数据。操作简单,无需专业知识。降低数据获取成本,提高效率。任务完全在云端不间断运行,不用担心关机或者断网。-Acquisition WeCenter fr a me plugin, the cloud line intelligent crawlers/collector, based distributed
  3. 所属分类:通讯编程

    • 发布日期:2024-10-07
    • 文件大小:12288
    • 提供者:贺石祥
  1. python internet worm

    0下载:
  2. 这是新浪微博爬虫,采用python+selenium实现 主要爬取内容包括: 新浪微博手机端用户信息和微博信息。 用户信息:包括用户ID、用户名、微博数、粉丝数、关注数等。 微博信息:包括转发或原创、点赞数、转发数、评论数、发布时间、微博内容等。 安装过程: 1.先安装Python环境,作者是Python 2.7.8 2.再安装PIP或者easy_install 3.通过命令pip install selenium安装selenium
  3. 所属分类:Internet/网络编程

    • 发布日期:2024-10-07
    • 文件大小:113664
    • 提供者:蓝茶
  1. phpspider

    0下载:
  2. 基于php的爬虫,内置了拉勾网招聘职位等信息(web crawler based on PHP)
  3. 所属分类:WEB源码

    • 发布日期:2024-10-07
    • 文件大小:5157888
    • 提供者:kickbutt
  1. aqi_v8.0

    0下载:
  2. 爬虫小程序,爬取各城市pm2.5信息,并记录。。。。。。。(Crawler small program, climb the city PM2.5 information, and record.)
  3. 所属分类:Python编程

    • 发布日期:2024-10-07
    • 文件大小:2048
    • 提供者:zgkm1109
  1. yide_v1.7 (1)

    0下载:
  2. 使用PHP脚本编写的一个网络爬虫,用来抓取对应网站的一些基本信息。(A web crawler using PHP scr ipting to grab some basic information of the corresponding website.)
  3. 所属分类:其他小程序

    • 发布日期:2024-10-07
    • 文件大小:306176
    • 提供者:你爹54188

源码中国 www.ymcn.org