IE同样实现多线程断点续传

| 收藏本文 下载本文 作者:parul

下面是小编整理的IE同样实现多线程断点续传(共含6篇),欢迎大家阅读分享借鉴,希望对大家有所帮助。同时,但愿您也能像本文投稿人“parul”一样,积极向本站投稿分享好文章。

IE同样实现多线程断点续传

篇1:IE同样实现多线程断点续传

网上最流行的多线程下载文件当然是网际快车了,用它下载文件不但速度快,而且还可以断点续传,那么IE能不能采用多线程下载文件呢?当然可以,下面就一步一步地教你如何改变自己的IE吧。

第一步,用网际快车下载IE6.0SP1完整安装程序,并安装。如果是XP的系统或已经安装IE6.0的就跳过这一步。因为只有IE6.0支持多线程下载,所以系统中必须安装IE6.0。

第二步,下载并安装 NetCaptor 7.5.4 汉化版,并设置成默认浏览器,

NetCaptor 7.5.4是一个多网页浏览器,支持黑名单过滤和网址拦截功能,可以拦截一些漂浮广告和弹出网页。从而加快网页浏览速度。很多网站上都可以下载。

第三步,用最新版的的Windows优化大师的“快猫加鞭”程序进行网络优化,打开多线程,一般设成5到8条线程,建议设成5或6。至此网络优化基本完成,以后就可以不用网际快车下载文件了,直接用IE下载的速度就很快,甚至比网际快车还要快。使用中,我还发现IE6.0同样支持断点续传,所以网际快车可以休息了!

前三步都完成后再自动升级系统,下载速度果然快了很多!平均下载速度一般能达到每秒100K左右,网速快的网站可以达到每秒105K左右,起始速度甚至能达到400K呢。

篇2:IE浏览持断点续传功能如何进行设置

当我们对某些软件或资源有所需求时,会通过各种下载方式来下载,而IE浏览器直接下载也是比较常用的方式,在下载过程中难免会遇到突然断网或网络连接失败等问题,那么下载或上传的资源也会随之停止,如果是资源体积小的话倒是可以选择重新下载,那么大资源使用IE下载到一半没网络怎么办呢?其实IE是由支持断点续传功能,

1、首先需要打开IE浏览器,在浏览器里面打开下载网站,在下载链接的地方直接点击鼠标右键,然后选择“目标另存为”选项。

2、这时候就会出现一个获取文件信息页面,几分钟之后就会自动下载,这时候电脑网络会断掉,可是只是现在了一半却提示已经下载完毕,这就说明没有真正下载完毕呢。我们需要做的就是在窗口右上方的地方单击关闭按钮就可以了。    3、win7 32位系统会重新在刚才下载的页面继续下载,这时候就会发现此前中断的那个文件已经继续下载了。    以上就是ghost win7IE浏览器断网后再连接网络继续下载的设置方法,个人觉得IE浏览器下载速度并不是很理想,建议使用第三方浏览器,如百度浏览器、UC浏览器和360浏览器等等。更多关于系统的信息,请直接登录系统家园查看。

篇3:简析IE不能断点续传的原因

问:我的IE是Windows XP SP2系统自带的,听说这个版本的IE支持断点续传了,但是我在下载一个大文件时,下了一半后单击“取消”后关闭计算机,第二次下载时却从零开始重新下载,这是什么原因?

答:IE6.0开始支持断点续传功能了,不过要想使用IE的断点传功能,你必须要满足以下几点:

1.关闭IE或是关闭系统时,不能清空Internet临时文件夹,因为IE在下载文件时,会先将下载下来的文件保存到临时文件夹中,

对于IE本身来说,你必须确保关闭IE时不自动清理临时文件夹:单击主窗口菜单“工具→Internet选项”,在打开的窗口中选择“高级”选项卡,然后取消选择“关闭浏览器时清空Internet临时文件夹”选项,保存设置。

2.在下载时,要想断开当前正在下载的文件,你不要直接单击下载对话框中的“取消”按钮,应该直接单击对话框右上角的关闭按钮。因为,你单击“取消”按钮后就会直接停止所有的下载并且自动清空已经下载到临时文件夹中的文件了。

[华军软件园-资讯中心]

篇4:真正实现全屏幕IE

或许大家都知道,用IE浏览网页时只要按下F11,就可以快速地切换到“全屏幕”方式,但是这个全屏幕方式在IE的顶部还是有一排工具栏图标,所以说它不是真正意义上的全屏方式,笔者要介绍的这个全屏幕模式,是一个完全没有工具栏、状态栏、菜单等,仅仅是网页的内容。

实现这样的功能其实并不难,只要在IE可执行主程序,也就是ieXPlore.exe后面加上指令参数-k即可。

当然我们也完全没有必要每次手动输入这些命令和参数,对了!可以用快捷方式帮你的忙。不知大家的电脑的快速启动栏里有没有一个“e”字图标的快捷方式(小编提示:通常在Windows安装的默认方式下会有)。鼠标右键点击该图标,查看“属性”,看到快捷方式的目标栏里的内容了吗?这就是IE可执行主程序的位置。在它的最后添上“-k”并且跟前面的字符之间加一个空格。即:“C:ProgramFilesInternetExplorerIEXPLORE.EXE”-k(小编提示:双引号一定需要喔!并且是半角的,即在英文输入法下输入双引号即可)。

如果启动栏里没有IE的快捷方式,可以在桌面另外建立一个新的IE快捷方式,在桌面空白的地方,按鼠标右键,选“新建→快捷方式”,在建立快捷方式的这个对话框中,指令行请输入:

“C:ProgramFilesInternetExplorerIEXPLORE.EXE”-k

友情提示:如果你的IE主程序不在这个位置可以自行修改,再次提醒双引号不要忘记喔!另外在“-k”之前加一空格,

现在你双击这个新快捷方式,IE就会激活到这个非常特殊的全屏幕下,屏幕上除了IE滚动条外,什么都没有。

由于常用的工具按钮和菜单都没有了,我们需要借助IE的快捷键,以下是常用到的快捷键:

Alt左箭头:上一页

Alt右箭头:下一页

CtrlD:加到我的收藏夹

CtrlH:开启历史文件夹

CtrlB:开启整理收藏夹

CtrlL:输入网址,开启新网页

CtrlN:开新窗口

CtrlR:刷新(或按F5)

CtrlW:关闭目前的窗口(或按AltF4)

该技巧在IE5.0、IE5.5和IE6.0都适用,现在你感觉浏览网页时是不是视野开阔了许多!

篇5:Python实现多线程抓取妹子图

本文给大家汇总了3款由Python制作的多线程批量抓取美图的代码,主要是将获取图片链接任务和下载图片任务用线程分开来处理了,而且这次的爬虫不仅仅可以爬第一页的图片链接的,有类似需求的小伙伴可以参考下,

心血来潮写了个多线程抓妹子图,虽然代码还是有一些瑕疵,但是还是记录下来,分享给大家。

Pic_downloader.py

# -*- coding: utf-8 -*-“”“Created on Fri Aug 07 17:30:58 @author: Dreace”“”import urllib2import sysimport timeimport osimport randomfrom multiprocessing.dummy import Pool as ThreadPool type_ = sys.getfilesystemencodingdef rename(): return time.strftime(“%Y%m%d%H%M%S”)def rename_2(name): if len(name) == 2: name = ‘0‘ + name + ‘.jpg‘ elif len(name) == 1: name = ‘00‘ + name + ‘.jpg‘ else: name = name + ‘.jpg‘ return namedef download_pic(i): global count global time_out if Filter(i): try: content = urllib2.urlopen(i,timeout = time_out)url_content = content.read()f = open(repr(random.randint(10000,999999999)) + “_” + rename_2(repr(count)),“wb”)f.write(url_content)f.close()count += 1 except Exception, e:print i + “下载超时,跳过!”.decode(“utf-8”).encode(type_)def Filter(content): for line in Filter_list: line=line.strip(‘n‘) if content.find(line) == -1:return Truedef get_pic(url_address): global pic_list try: str_ = urllib2.urlopen(url_address, timeout = time_out).read() url_content = str_.split(“”“) for i in url_content:if i.find(”.jpg“) != -1: pic_list.append(i) except Exception, e: print ”获取图片超时,跳过!“.decode(”utf-8“).encode(type_)MAX = 2count = 0time_out = 60thread_num = 30pic_list = []page_list = []Filter_list = [”imgsize.ph.126.net“,”img.ph.126.net“,”img2.ph.126.net“]dir_name = ”C:Photos“+rename()os.makedirs(dir_name)os.chdir(dir_name)start_time = time.time()url_address = ”sexy.faceks.com/?page=“for i in range(1,MAX + 1): page_list.append(url_address + repr(i))page_pool = ThreadPool(thread_num)page_pool.map(get_pic,page_list)print ”获取到“.decode(”utf-8“).encode(type_),len(pic_list),”张图片,开始下载!“.decode(”utf-8“).encode(type_)pool = ThreadPool(thread_num) pool.map(download_pic,pic_list)pool.close() pool.join()print count,”张图片保存在“.decode(”utf-8“).encode(type_) + dir_nameprint ”共耗时“.decode(”utf-8“).encode(type_),time.time() - start_time,”s“

我们来看下一个网友的作品

#coding: utf-8 ############################################################## File Name: main.py# Author: mylonly# mail: mylonly@gmail.com# Created Time: Wed 11 Jun 08:22:12 PM CST##########################################################################!/usr/bin/pythonimport re,urllib2,HTMLParser,threading,Queue,time#各图集入口链接htmlDoorList = []#包含图片的Hmtl链接htmlUrlList = []#图片Url链接QueueimageUrlList = Queue.Queue(0)#捕获图片数量imageGetCount = 0#已下载图片数量imageDownloadCount = 0#每个图集的起始地址,用于判断终止nextHtmlUrl = ‘‘#本地保存路径localSavePath = ‘/data/1920x1080/‘#如果你想下你需要的分辨率的,请修改replace_str,有如下分辨率可供选择1920x1200,1980x1920,1680x1050,1600x900,1440x900,1366x768,1280x1024,1024x768,1280x800replace_str = ‘1920x1080‘replaced_str = ‘960x600‘#内页分析处理类class ImageHtmlParser(HTMLParser.HTMLParser):def __init__(self):self.nextUrl = ‘‘HTMLParser.HTMLParser.__init__(self)def handle_starttag(self,tag,attrs):global imageUrlListif(tag == ‘img‘ and len(attrs) > 2 ):if(attrs[0] == (‘id‘,‘bigImg‘)):url = attrs[1][1]url = url.replace(replaced_str,replace_str)imageUrlList.put(url)global imageGetCountimageGetCount = imageGetCount + 1print urlelif(tag == ‘a‘ and len(attrs) == 4):if(attrs[0] == (‘id‘,‘pageNext‘) and attrs[1] == (‘class‘,‘next‘)):global nextHtmlUrlnextHtmlUrl = attrs[2][1];#首页分析类class IndexHtmlParser(HTMLParser.HTMLParser):def __init__(self):self.urlList = []self.index = 0self.nextUrl = ‘‘self.tagList = [‘li‘,‘a‘]self.classList = [‘photo-list-padding‘,‘pic‘]HTMLParser.HTMLParser.__init__(self)def handle_starttag(self,tag,attrs):if(tag == self.tagList[self.index]):for attr in attrs:if (attr[1] == self.classList[self.index]):if(self.index == 0):#第一层找到了self.index = 1else:#第二层找到了self.index = 0print attrs[1][1]self.urlList.append(attrs[1][1])breakelif(tag == ‘a‘):for attr in attrs:if (attr[0] == ‘id‘ and attr[1] == ‘pageNext‘):self.nextUrl = attrs[1][1]print ‘nextUrl:‘,self.nextUrlbreak#首页Hmtl解析器indexParser = IndexHtmlParser()#内页Html解析器imageParser = ImageHtmlParser()#根据首页得到所有入口链接print ‘开始扫描首页...‘host = ‘desk.zol.com.cn‘indexUrl = ‘/meinv/‘while (indexUrl != ‘‘):print ‘正在抓取网页:‘,host+indexUrlrequest = urllib2.Request(host+indexUrl)try:m = urllib2.urlopen(request)con = m.read()indexParser.feed(con)if (indexUrl == indexParser.nextUrl):breakelse:indexUrl = indexParser.nextUrlexcept urllib2.URLError,e:print e.reasonprint ‘首页扫描完成,所有图集链接已获得:‘htmlDoorList = indexParser.urlList#根据入口链接得到所有图片的urlclass getImageUrl(threading.Thread):def __init__(self):threading.Thread.__init__(self)def run(self):for door in htmlDoorList:print ‘开始获取图片地址,入口地址为:‘,doorglobal nextHtmlUrlnextHtmlUrl = ‘‘while(door != ‘‘):print ‘开始从网页%s获取图片...‘% (host+door)if(nextHtmlUrl != ‘‘):request = urllib2.Request(host+nextHtmlUrl)else:request = urllib2.Request(host+door)try:m = urllib2.urlopen(request)con = m.read()imageParser.feed(con)print ‘下一个页面地址为:‘,nextHtmlUrlif(door == nextHtmlUrl):breakexcept urllib2.URLError,e:print e.reasonprint ‘所有图片地址均已获得:‘,imageUrlListclass getImage(threading.Thread):def __init__(self):threading.Thread.__init__(self)def run(self):global imageUrlListprint ‘开始下载图片...‘while(True):print ‘目前捕获图片数量:‘,imageGetCountprint ‘已下载图片数量:‘,imageDownloadCountimage = imageUrlList.get()print ‘下载文件路径:‘,imagetry:cont = urllib2.urlopen(image).read()patter = ‘[0-9]*.jpg‘;match = re.search(patter,image);if match:print ‘正在下载文件:‘,match.group()filename = localSavePath+match.group()f = open(filename,‘wb‘)f.write(cont)f.close()global imageDownloadCountimageDownloadCount = imageDownloadCount + 1else:print ‘no match‘if(imageUrlList.empty()):breakexcept urllib2.URLError,e:print e.reasonprint ‘文件全部下载完成...‘get = getImageUrl()get.start()print ‘获取图片链接线程启动:‘time.sleep(2)download = getImage()download.start()print ‘下载图片链接线程启动:‘

批量抓取指定网页上的所有图片

# -*- coding:utf-8 -*-# coding=UTF-8 import os,urllib,urllib2,re url = u”image.baidu.com/search/index?tn=baiduimage&ipn=r&ct=26592&cl=2&lm=-1&st=-1&fm=index&fr=&sf=1&fmq=&pv=&ic=0&nc=1&z=&se=1&showtab=0&fb=0&width=&height=&face=0&istype=2&ie=utf-8&word=python&oq=python&rsp=-1“outpath = ”t:“ def getHtml(url): webfile = urllib.urlopen(url) uthtml = webfile.read() print outhtml return outhtml def getImageList(html): restr=ur‘(‘ restr+=ur‘http://[^s,”]*.jpg‘ restr+=ur‘|http://[^s,“]*.jpeg‘ restr+=ur‘|http://[^s,”]*.png‘ restr+=ur‘|http://[^s,“]*.gif‘ restr+=ur‘|http://[^s,”]*.bmp‘ restr+=ur‘|https://[^s,“]*.jpeg‘ restr+=ur‘|https://[^s,”]*.jpeg‘ restr+=ur‘|https://[^s,“]*.png‘ restr+=ur‘|https://[^s,”]*.gif‘ restr+=ur‘|https://[^s,"]*.bmp‘ restr+=ur‘)‘ htmlurl = re.compile(restr) imgList = re.findall(htmlurl,html) print imgList return imgList def download(imgList, page): x = 1 for imgurl in imgList: filepathname=str(outpath+‘pic_%09d_%010d‘%(page,x)+str(os.path.splitext(urllib2.unquote(imgurl).decode(‘utf8‘).split(‘/‘)[-1])[1])).lower() print ‘[Debug] Download file :‘+ imgurl+‘ >> ‘+filepathname urllib.urlretrieve(imgurl,filepathname) x+=1 def downImageNum(pagenum): page = 1 pageNumber = pagenum while(page <= pageNumber): html = getHtml(url)#获得url指向的html内容 imageList = getImageList(html)#获得所有图片的地址,返回列表 download(imageList,page)#下载所有的图片 page = page+1 if __name__ == ‘__main__‘: downImageNum(1)

以上就是给大家汇总的3款Python实现的批量抓取妹纸图片的代码了,希望对大家学习Python爬虫能够有所帮助,

篇6:Windows XP SP2如何实现多线程访问

打了SP2的Windows XP操作系统用户可能会发现,访问网络并不舒畅了,只要在后台开了访问网络的软件,如果再打开其他访问网络的软件或者IE浏览器时,可能无法打开或者连接速度缓慢,尤其是当用户运行了FlashGet、BT或者P2P等多线程访问网络的软件时,再运行任何访问网络软件时都导致经常访问不到网络,就像没有断开网络了一样,为什么会这样呢?在SP2中,为了防止Windows XP SP2受到网络蠕虫病毒等的传播和攻击,微软给Windows XP SP2访问网络做了最大安全连接限制,这就导致下载软件失效或者下载软件占用了全部连接,而用户再使用其他软件却无法访问到网络了。

虽然微软在Windows XP SP2中限制了最大安全连接限制为10线程,对于广大的BT爱好者和经常泡网运行多网络软件的朋友来说,这是绝对不够的,

笔者在网上找到了一个可以修改Windows XP SP2系统文件Tcpip.sys最大安全连接限制的软件,大家可以在www.lvllord.de/?url=downloads&lang=en下载,仅为30KB。下载完以后,把这个文件放在系统目录下,再进入Dos模式下,运行EvID4226Patch/l=$n$/w=C:WINDOWSsystem32drivers/l=tcpip.sys,其中$n$为个人需要设置,假如笔者需要把最大安全连接限制设置为50线程,那么输入运行EvID4226Patch/l=50/w=C:WINDOWSsystem32drivers/l=tcpip.sys即可,笔者并不建议把此数值改的太高,这样网络安全会大大降低,笔者建议普通用户设置为10~30,BT爱好者设置为100~150,并且安装杀毒软件和防火墙,这样网络安全才有保障。

Python实现多线程抓取妹子图

IE问题解决方法

拼图同样美丽作文

雪白雪白同样的词语

ie工程师岗位职责范本

《ie üe er》 之一

求职申请表同样不可忽视

读《童年》有感――童年不同样

ie ue er教学反思

《ie üe er》 教学反思

IE同样实现多线程断点续传(精选6篇)

欢迎下载DOC格式的IE同样实现多线程断点续传,但愿能给您带来参考作用!
推荐度: 推荐 推荐 推荐 推荐 推荐
点击下载文档 文档为doc格式
点击下载本文文档