文件名称:collect
介绍说明--下载内容均来自于网络,请自行研究使用
简易采集爬虫
# 1.我只做了一个收集url的功能,如果需要将数据入库,可在 parseData 函数里面写处理代码
# 2.需要sqlite3或者pysqlite支持
# 3.可以在DreamHost.com空间上面运行
# 4.可以修改User-Agent冒充搜索引擎蜘蛛
# 5.可以设置暂停的时间,控制采集速度-Simple collection reptiles# 1. I have only had a collection of url feature, if you need the data storage, you can write parseData handling code inside a function# 2. Need to sqlite3 or pysqlite support# 3. Can DreamHost.com space to run# 4. can modify the User-Agent posing as search engine spiders# 5. you can set the pause time, control of acquisition speed
# 1.我只做了一个收集url的功能,如果需要将数据入库,可在 parseData 函数里面写处理代码
# 2.需要sqlite3或者pysqlite支持
# 3.可以在DreamHost.com空间上面运行
# 4.可以修改User-Agent冒充搜索引擎蜘蛛
# 5.可以设置暂停的时间,控制采集速度-Simple collection reptiles# 1. I have only had a collection of url feature, if you need the data storage, you can write parseData handling code inside a function# 2. Need to sqlite3 or pysqlite support# 3. Can DreamHost.com space to run# 4. can modify the User-Agent posing as search engine spiders# 5. you can set the pause time, control of acquisition speed
相关搜索: python
(系统自动生成,下载前可以参看下载内容)
下载文件列表
源码网说明.txt
下载说明.html
collect.py
下载说明.html
collect.py