jjzjj

windows - wget是Windows默认的吗,如果不是默认有什么下载功能

我对我的机器做了很多更改,所以不确定wget是否因我的更改而可用,或者它是否始终默认存在于Windows机器上。Windows自带吗如果没有,我可以在Windows.bat脚本中使用什么下载功能从Web下载文件。此功能必须默认可用 最佳答案 Wget没有内置在windows中,但是有一个windows版本。http://gnuwin32.sourceforge.net/packages/wget.htm据我所知,Windows没有类似的内置dos命令。 关于windows-wget是Wi

windows - 是否有免费/开源的带有图形进度的类似 wget 的 Windows 程序?

我正在为我们的软件编写基于WiX的安装程序。我需要下载一些重要的依赖项(如SqlServerExpress2008),然后安装它们。我可以只使用wget,但是让控制台打开以显示进度对于非技术人员来说可能会非常困惑。相反,我一直在寻找一个像wget一样工作的程序,但在一个非常简单的窗口中显示它的进度,其中包含文件名和进度。如果我能显示一条小消息那会很棒,但主要是让GUI取得进展。我什至会对几乎执行此操作的现有程序感兴趣,我可以重新编译它以添加我需要的任何内容。由于这是在安装程序中,它不能依赖于.Net或任何其他需要安装才能工作的东西。有人知道这样的程序吗? 最

windows - 如何使用 Powershell wget 输出完整的网页特定内容?

当我发出命令powershell.exewgethttp://IP_ADDR:8080/config/version/时,我得到了响应:StatusCode:200StatusDescription:OKContent:{"Contentofthewebpagedoesnotfullyshowthroughthisoutput…HowcanIusewgettojustshowthefullcontentofthewebpagewithoutcuttingitout?RawContent:HTTP/1.1200OKContent-Length:307Content-Type:applic

windows - Powershell 脚本 : Can't read return value of executed program

我正在使用PowerShell运行一个脚本,该脚本执行wget以获取网页(一个简单的数据库导入脚本)并分析其输出(错误消息或“OK”)。我正在使用thispreviousquestion的答案中的代码我的。$a=c:\path_to_wget\wget.exe--quiet-O-"http://www.example.com/import_db"$rc=$a.CompareTo("OK")exit$rc当wget操作的结果是404-并且wget可能返回错误级别1或127-我从PowerShell收到以下错误消息:Youcannotcallamethodonanull-valuedexp

c# - C# 中的 wget/curl

我正在用C#编写一个抓取工具,我想将一些数据下载到文件中并提交一些表单。到目前为止,我一直在使用wget和curl。我将如何在C#(在Linux上)中做到这一点?(我的意思是一个库,而不是通过system()或诸如此类的东西调用shell命令)。 最佳答案 您可以使用System.Net.WebClient,这是.NET中最简单的资源下载界面。如果您需要对请求进行更多控制,请查看HttpWebRequest.对于WebClient,只需实例化一个实例,然后调用适合您需要的下载方法之一:varcli=newWebClient();st

php - wget 返回下载的文件名

我在php脚本中使用wget,需要获取下载文件的名称。例如,如果我尝试我会在下载目录中得到一个名为index.html的文件。编辑:该页面并不总是谷歌,目标可能是图像或样式表,所以我需要找出下载的文件的名称。我想要这样的东西: 最佳答案 也许那是某种作弊,但为什么不呢:自己决定wget应该创建的文件的名称指示wget应该下载该文件下载完成后,使用该文件——因为您已经知道名称了。查看wget的-O选项;-)例如,从命令行运行它:wget'http://www.google.com/'-Omy-output-file.html将创建一个

php - 浏览器如何允许下载 php 文件而 wget 不允许? [MediaWiki 安装]

在安装MediaWiki的过程中,我必须下载一个名为LocalSettings.php的文件。当我通过单击下载链接(恰好是http://localhost/mymediawiki/mw-config/index.php?localsettings=1)下载它时,它会下载一个php文件,但是当我通过“复制链接地址”并使用下载它时$wgetURL-O输出它下载一个html文件。index.php的内容如下:https://pastebin.com/08HZeirU下面是我用wget得到的内容:https://pastebin.com/d5aiG9Ph基本上是提供下载链接的页面(http:/

php - 在 php 脚本中确定是否连接到互联网?

这个问题在这里已经有了答案:Determineinphpscriptifconnectedtointernet?(14个答案)关闭3年前。如何检查我是否已通过我的开发机器(而不是某处服务器)上运行的PHP脚本连接到互联网?我运行脚本以使用wget下载一组文件(可能存在也可能不存在)。如果我在未连接的情况下尝试下载wget,wget会认为文件不存在,因此我需要在调用wget之前进行检查。

php - 检索部分网页

有什么方法可以限制CURL获取的数据量吗?我正在从一个50kb的页面上抓取数据,但是我需要的数据位于页面的顶部1/4,因此我实际上只需要检索页面的前10kb。我问这个问题是因为我需要监控大量数据,这导致我每月传输近60GB的数据,而其中只有大约5GB的带宽是相关的。我正在使用PHP来处理数据,但是我的数据检索方法很灵活,我可以使用CURL、WGET、fopen等。我正在考虑的一种方法是$fp=fopen("http://www.website.com","r");fseek($fp,5000);$data_to_parse=fread($fp,6000);以上是否意味着我只会从www.

php - 保存完整网页

我在做一个项目时遇到了一个问题。我想“抓取”某些感兴趣的网站并将它们保存为“完整网页”,包括样式和图像,以便为它们构建一个镜像。我曾多次将网站添加为书签以便日后阅读,几天后该网站因遭到黑客攻击而关闭,所有者没有数据库备份。当然,我可以使用fopen("http://website.com","r")或fsockopen()非常轻松地使用php读取文件但主要目标是保存完整的网页,以防万一它出现故障,它仍然可以像“编程时间机器”一样供其他人使用:)有没有办法在不读取和保存页面上的每个链接的情况下执行此操作?也欢迎使用Objective-C解决方案,因为我也在尝试了解更多。谢谢!