jjzjj

urlretrieve

全部标签

python - 带有 GUI 进度显示的文件下载器?

我正在尝试编写一个具有GUI并显示正在下载文件的进度的文件下载器。我希望它显示文本百分比、进度条或两者。我确信这可以在Python中完成,但我只是不确定如何做。我在MSWindowsXP上使用Python2.6。 最佳答案 最简单的进度条对话框可能是EasyDialogsforWindows(遵循与mac版python中包含的EasyDialogs模块相同的api)要确定下载进度,请使用urllib.urlretrieve()带有“报告钩”。像这样:importsysfromEasyDialogsimportProgressBarf

Python - 使用进度条和基本身份验证通过 HTTP 下载文件

我正在使用urllib.urlretrieve下载文件,并使用reporthook参数实现下载进度条。由于urlretrieve不直接支持身份验证,我想出了importurllibdefurlretrieve_with_basic_auth(url,filename=None,reporthook=None,data=None,username="",password=""):classOpenerWithAuth(urllib.FancyURLopener):defprompt_user_passwd(self,host,realm):returnusername,passwordr

python - wget 与 python 的 urlretrieve

我的任务是从网站下载Gbs的数据。数据以.gz文件的形式存在,每个文件大小为45mb。获取文件的简单方法是使用“wget-r-np-Afilesurl”。这将以递归格式下载数据并镜像网站。下载速率非常高,4mb/秒。但是,为了玩玩,我还使用python构建了我的urlparser。通过Python的urlretrieve下载非常慢,可能是wget的4倍。下载速率为500kb/秒。我使用HTMLParser来解析href标签。我不确定为什么会这样。有没有这方面的设置。谢谢 最佳答案 可能是您的单位数学错误。只是注意到500KB/s(k

python - Urlretrieve 和用户代理? - Python

我正在使用urllib模块中的urlretrieve。我似乎找不到如何向我的请求添加用户代理描述。urlretrieve可以吗?还是我需要使用其他方法? 最佳答案 首先,设置版本:urllib.URLopener.version='Mozilla/5.0(WindowsNT6.1)AppleWebKit/537.36(KHTML,likeGecko)Chrome/35.0.1916.153Safari/537.36SE2.XMetaSr1.0'然后:filename,headers=urllib.urlretrieve(url)

python - Urlretrieve 和用户代理? - Python

我正在使用urllib模块中的urlretrieve。我似乎找不到如何向我的请求添加用户代理描述。urlretrieve可以吗?还是我需要使用其他方法? 最佳答案 首先,设置版本:urllib.URLopener.version='Mozilla/5.0(WindowsNT6.1)AppleWebKit/537.36(KHTML,likeGecko)Chrome/35.0.1916.153Safari/537.36SE2.XMetaSr1.0'然后:filename,headers=urllib.urlretrieve(url)

python - 用python将一些网站的HTML保存在一个txt文件中

我需要将任何网站的HTML代码保存在一个txt文件中,这是一个非常简单的练习,但我对此表示怀疑,因为有一个函数可以执行此操作:importurllib.requestdefget_html(url):f=open('htmlcode.txt','w')page=urllib.request.urlopen(url)pagetext=page.read()##Savethehtmlandlatersaveinthefilef.write(pagetext)f.close()但这行不通。 最佳答案 最简单的方法是使用urlretriev

python - 用python将一些网站的HTML保存在一个txt文件中

我需要将任何网站的HTML代码保存在一个txt文件中,这是一个非常简单的练习,但我对此表示怀疑,因为有一个函数可以执行此操作:importurllib.requestdefget_html(url):f=open('htmlcode.txt','w')page=urllib.request.urlopen(url)pagetext=page.read()##Savethehtmlandlatersaveinthefilef.write(pagetext)f.close()但这行不通。 最佳答案 最简单的方法是使用urlretriev

python - 将从 Urlretrieve 下载的文件保存到另一个文件夹 other

关闭。这个问题不符合StackOverflowguidelines.它目前不接受答案。要求提供代码的问题必须表现出对所解决问题的最低限度理解。包括尝试过的解决方案、为什么它们不起作用,以及预期结果。另请参阅:StackOverflowquestionchecklist关闭8年前。Improvethisquestion目前可以正常工作并且可以正确下载文件,但是将它们放在运行它的同一文件夹中,但是我怎么说将它们移动到c:\downloads或类似的地方?urllib.urlretrieve(url,filename)

python - Python urllib.urlretrieve() 和 wget 的区别

我正在尝试使用Python检索一个500mb的文件,并且我有一个使用urllib.urlretrieve()的脚本。我和下载站点之间似乎存在一些网络问题,因为此调用一直挂起并且无法完成。但是,使用wget检索文件往往没有问题。urlretrieve()和wget之间有什么区别会导致这种差异? 最佳答案 答案很简单。Python的urllib和urllib2远未达到应有的成熟和健壮。根据我的经验,甚至比wget更好的是cURL。我编写的代码可以通过HTTP下载数GB的文件,文件大小从50KB到2GB以上不等。据我所知,cURL是目前地

python - 在 python urllib.urlretrieve 中设置推荐 url

我在Python中使用urllib.urlretrieve下载网站。尽管某些网站似乎不希望我下载它们,除非他们从自己的站点获得了适当的引荐来源网址。有谁知道我可以在Python的一个库或外部库中设置引荐来源网址的方法。 最佳答案 importurllib2req=urllib2.Request('http://www.example.com/')req.add_header('Referer','http://www.python.org/')r=urllib2.urlopen(req)采用自http://docs.python.o
12