jjzjj

Crimson$硬件$CPU

全部标签

Java 进程占用 CPU 100%

我们有一个在各种环境中正常运行的应用程序。然而,在一个客户端站点,当应用程序调用子进程(在本例中为CODEFIND.EXF-请参阅随附显示)时,它会将处理器锁定在100%。我在解释显示方面需要帮助。虽然显示似乎是父进程正在消耗所有资源,但实际上是父进程调用了子进程吗?我怎么能说这个?谢谢,埃利奥特 最佳答案 显示表明罪魁祸首是java.exe。这个指示是正确的。子进程不消耗CPU。 关于Java进程占用CPU100%,我们在StackOverflow上找到一个类似的问题:

windows - Windows 如何记录硬件错误?

关闭。这个问题是off-topic.它目前不接受答案。想改进这个问题吗?Updatethequestion所以它是on-topic用于堆栈溢出。关闭10年前。Improvethisquestion最近在我的事件日志中得到了这个:Afatalhardwareerrorhasoccurred.Reportedbycomponent:ProcessorCoreErrorSource:MachineCheckExceptionErrorType:Bus/InterconnectErrorProcessorID:1问题是,如何设计一个可以记录此类错误的日志子系统?如果足以发出一个DMA请求来写入

c++ - 在 Windows 中获取 C++ 中的唯一硬件标识符

这个问题在这里已经有了答案:关闭10年前。PossibleDuplicate:ReliablewayofgeneratinguniquehardwareID我想用C++检索单个机器的唯一硬件标识符。有什么建议么?我需要这个软件在WindowsXP、Vista、7、8中运行。我只需要几个系统调用来检索MAC地址、硬盘序列号或类似的东西。

c++ - 使用 GetProcessTimes 在 Windows 上测量 CPU 时间

我想测量CPU一些功能的时间。我知道如何使用GetProcessTimes,但我在使用某种“重新启动”实现它时遇到了问题:通常,我会这样做:#include"stdafx.h"#include#includedoublecputimer(){FILETIMEcreateTime;FILETIMEexitTime;FILETIMEkernelTime;FILETIMEuserTime;if(GetProcessTimes(GetCurrentProcess(),&createTime,&exitTime,&kernelTime,&userTime)!=-1){SYSTEMTIMEuser

c++ - 如果在 Intel CPU 上关闭 "SpeedStep Technology",RDTSC() 是否准确?

寻找最准确的时间戳。看来CPU周期计数器可以提供:使用unsigned__int64__rdtsc();如果我能够关闭动态CPU速度选项,Intel芯片上的“SpeedStepTechnology”(我假设来自BIOS?):rdtsc()能否准确衡量两个事件之间耗时?事件?CPU时钟速度是多少?真的是广告上说的吗CPU速度(即2.4GHzCPU-使用每秒2,400,000,000分频CPU时钟计数值来获取实际时间)? 最佳答案 Willrdtsc()beanaccuratemeasureofelapsedtimebetweentwo

windows - 用于监视某个程序的 CPU 使用率并对其使用react的批处理脚本

我不知道以前是否有人问过这个问题,但这里是:有没有办法编写一个批处理脚本,使其持续监控某个可执行程序的cpu使用率百分比,直到cpu达到0%?假设我们有一个名为xyz.exe的程序,根据任务管理器,该程序当前使用了大约2-4%的cpu。一段时间后,cpu达到0%。我试过如下使用tasklist命令,但无法针对cpu目的对其进行调整:@echooff:looptasklist|"xyz"iferrorlevel1(echoxyzstillrunninggotoloop)else(gotonext):nextxyzcompleted 最佳答案

c++ - 基于 Windows 的 C++ 应用程序随着时间的推移消耗更多的 CPU

我们在Windows上有一个基于C++的多线程应用程序,它使用WinPCAP库实时捕获网络数据包,然后处理这些数据包以监控网络。此应用程序旨在24x7全天候运行。我们的应用程序很容易消耗7-8GB的RAM。我们正在观察的问题:假设应用程序正在监控100Mbps的网络流量并消耗60%的CPU。我们观察到,当应用程序持续运行较长时间(如一两天)时,应用程序的CPU消耗会增加到70-80%,即使它仍在处理100Mbps的流量(做同样的工作量).我们尝试使用ProcessExplorer将此问题调试到线程级别,并注意到随着时间的推移,数据包捕获线程开始消耗更多的CPU。即使重新启动应用程序后,

c# - Windows - 以编程方式检查系统硬件上是否可以托管 wlan 网络

我正在寻找一种方法来检查WLAN托管网络(也就是设置AP而不是连接到网络)功能是否在系统上可用。目前我正在调用netshwlanstarthostednetwork命令来设置它,但该命令的输出太出乎意料,无法真正以编程方式检查它(取决于windows语言环境等)。另外,我希望在调用此命令之前获得信息。我认为如果系统上没有WLAN设备或硬件不支持托管网络模式,netshwlansethostednetworkmode=allow可能会给出非零退出状态,但它似乎返回始终为零(给定正确的语法)。我需要在其中实现它的程序是用C#编写的,因此任何.NET或P/Invoke解决方案都应该没问题。我

c++ - 如何确定每个内核的 C++ CPU 消耗

如何在C++中获取每个内核的CPU负载(具有超线程的四核CPU)?我正在寻找类似任务管理器中%的结果。我现在正在尝试这样做:问题是代码识别9个内核(我有8个:/)#define_WIN32_DCOM#include#include#include#pragmacomment(lib,"wbemuuid.lib")usingnamespacestd;boolgetCpuLoadInfo(){HRESULThres;//Step1:--------------------------------------------------//InitializeCOM.--------------

windows - 硬件 H264 编码 ID3D11Texture2D with Media Foundation

我正在从事一个捕获屏幕并对其进行编码的项目。我已经可以使用桌面复制API(Win8+)捕获屏幕。使用API,我可以获得ID3D11Texture2D纹理并将它们从GPU传输到CPU,然后使用libx264对其进行编码。但是,将纹理从GPU拉到CPU可能是一个瓶颈,可能会降低fps。libx264也占用CPU周期(取决于质量)来编码帧。我正在寻找在GPU本身中编码ID3D11Texture2D纹理,而不是使用CPU进行编码作为优化。我已经检查了文档和一些示例代码,但没有成功。如果有人可以向我指出一些可靠地完成我想要的事情的资源,我将不胜感激。 最佳答案