搜索资源列表
PageRank2
- python写的一个pagerank计算的程序,需要用到python处理数组矩阵的模块numpy,pagerank算法在google搜索引擎网页重要程度排序中用到
PageRank2
- python写的一个pagerank计算的程序,需要用到python处理数组矩阵的模块numpy,pagerank算法在google搜索引擎网页重要程度排序中用到-python write a pagerank calculation procedures, the need to use python modules deal with the array matrix numpy, pagerank algorithm in goo
upload
- 这是利用python写的一个搜索引擎功能,希望对学习python的起到帮助。-This is to use python to write a search engine function, want to learn python' s helpful.
collect
- 简易采集爬虫 # 1.我只做了一个收集url的功能,如果需要将数据入库,可在 parseData 函数里面写处理代码 # 2.需要sqlite3或者pysqlite支持 # 3.可以在DreamHost.com空间上面运行 # 4.可以修改User-Agent冒充搜索引擎蜘蛛 # 5.可以设置暂停的时间,控制采集速度-Simple collection reptiles# 1. I have only had a c
qcProduct
- Python写的一个小小ftp搜索引擎 -a ftp search engineer wrote by python
search
- python开发的一个C/S架构的导师查询系统。一个简单的搜索引擎,有网络爬虫,可离线搜索。-python development of a C/S structure of the tutor query system. A simple search engine Web crawler can be offline search.
BadBoy
- 全文本搜索引擎,实现用python,自带编写一个server用于本地测试,可以进行简单多线程爬虫运行-Full-text search engine, achieved using python, comes to write a server for local testing, you can run a simple multi-threaded crawler
pageRank
- python代码,利用hadoop分布式框架,处理与搜索引擎相关的pagerank问题 -python code, use hadoop distributed fr a mework for dealing with pagerank search engine-related issues
Python_Search_Engine
- python实现的快速并行中文搜索引擎。-python achieve fast parallel Chinese search engine.
s0vkaq
- 利用scrapy和elasticsearch打造搜索引擎。(Using scrapy and elasticsearch to build search engines.)
spider_baike-master
- 一个简单的初级爬虫程序通用网络爬虫又称全网爬虫(Scalable Web Crawler),爬行对象从一些种子 URL 扩充到整个 Web,主要为门户站点搜索引擎和大型 Web 服务提供商采集数据。 由于商业原因,它们的技术细节很少公布出来。 这类网络爬虫的爬行范围和数量巨大,对于爬行速度和存储空间要求较高,对于爬行页面的顺序要求相对较低,同时由于待刷新的页面太多,通常采用并行工作方式,但需要较长时间才能刷新一次页面。 虽然存在一定缺陷
search
- 利用谷歌搜索引擎实现自动上传图片,并获取搜索结果(Use Google search engine to automatically upload pictures, and obtain search results)
PanDownload
- 使用python实现web平搜索引擎的开发,提高搜素效率!(Using Python to achieve web flat search engine development, improve search efficiency!)
python分布式爬虫打造搜索引擎
- python分布式爬虫打造搜索引擎源代码及讲师源代码(Python distributed crawler to build search engine)