jjzjj

原本可幸免于难的Linux故障情况如何避免?你也可以搞定

上一篇复盘和总结了Linux下容易发生的意外损坏情况、如何提前检测和预防的思路。Linux系统一般在以下方面出现潜在问题而影响正常工作:硬件故障;内核错误;文件系统损坏;软件冲突;系统更新问题;恶意软件;过度负载;配置错误。本文继续分析第4-8的问题。软件冲突Linux下的软件冲突有哪些表现?软件冲突1:依赖库缺失,软件找不到依赖的函数比如很多开发人员,从源码编译方式安装了一些基础的类库到自定义库路径下,然后发现系统和桌面的其他软件启动异常。以下是QT相关的软件启动失败的报错日志:……libQt5XcbQpa.so.5:undefinedsymbol:FT_Property_Set根据关键词搜

​快年底了,小心不打“招呼”就损坏!原本可幸免于难的Linux系统和文件数据意外如何避免?

是的,这就快到年底了,技术的或管理的工作都要进入收尾阶段。作为技术人员,有时候最怕关键时刻出的那点意外。人家美国佬总结了一个定律叫【墨菲定律】,你之前曾担心容易出问题的,往往后面就真的容易出问题的概率非常大。只是不确定什么时候发生而已(发生了就呵呵了~~)。所以今天向各位提个醒,提早做检查预防和本文接下来指出的一些方面的准备。还记得经典的蓝屏吗?不一样的面孔,熟悉的味道——启动异常在Linux里面是这样的:好吧,这是旁边同事断电重启后崩溃的电脑。我的极少出现故障,因为我已做好多重预防措施。本文接下来复盘和总结操作系统和Linux下容易发生的各种意外损坏情况,如何提前检测和预防。很实用,一定要看

大模型集体失控!南洋理工新型攻击,主流AI无一幸免

西风萧箫发自凹非寺量子位|公众号QbitAI业界最领先的大模型们,竟然集体“越狱”了!不止是GPT-4,就连平时不咋出错的Bard、BingChat也全线失控,有的要黑掉网站,有的甚至扬言要设计恶意软件入侵银行系统:这并非危言耸听,而是南洋理工大学等四所高校提出的一种大模型“越狱”新方法MasterKey。用上它,大模型“越狱”成功率从平均7.3%直接暴涨至21.5%。研究中,诱骗GPT-4、Bard和Bing等大模型“越狱”的,竟然也是大模型——只需要利用大模型的学习能力、让它掌握各种“诈骗剧本”,就能自动编写提示词诱导其它大模型“伤天害理”。所以,相比其他大模型越狱方法,MasterKey

RLHF模型普遍存在「阿谀奉承」,从Claude到GPT-4无一幸免

不管你是身处AI圈还是其他领域,或多或少的都用过大语言模型(LLM),当大家都在赞叹LLM带来的各种变革时,大模型的一些短板逐渐暴露出来。例如,前段时间,GoogleDeepMind发现LLM普遍存在「奉承(sycophantic)」人类的行为,即有时人类用户的观点客观上不正确,模型也会调整自己的响应来遵循用户的观点。就像下图所展示的,用户告诉模型1+1=956446,然后模型遵从人类指令,认为这种答案是对的。图源https://arxiv.org/abs/2308.03958实际上,这种现象普遍存在于很多AI模型中,原因出在哪里呢?来自AI初创公司Anthropic的研究者对这一现象进行了分

在字典中更新列表中的字典 - 价值更改无法幸免在范围内

我在词典中有词典列表。我正在尝试更新其中一个字段的价值。简化示例:main={'list':[{'value':'hello','manymanymore':'values'}]}update_value={'value':'test','manymanymore':'values'}foriteminmain['list']:ifTrue:#justtoillustratethatIneedtodosomecheckhereitem=update_valueprint(item)foriteminmain['list']:print(item)这会产生以下输出:{'value':'test'

一段话让模型自曝「系统提示词」!ChatGPT、Bing无一幸免

ChatGPT语音对话,发布即惊艳全网——凭借表达自然流畅,嘎嘎乱杀一众AI对话产品。而现在,其背后秘诀——系统提示词居然被人扒了出来!原来对话过程中,ChatGPT要遵循下面这么多规则:使用自然、对话性强、清晰易懂的语言,比如短句、简单词汇;要简洁而有针对性,大多数回应应该是一两个句子,除非用户要求深入探讨,不要垄断对话;使用话语标记来帮助理解,不要使用列表,保持对话流畅;有歧义时,请提出澄清性问题,而不要做出假设;不要明示或暗示结束对话,有时用户只是想聊天;提出与话题相关的问题,不要询问他们是否需要进一步的帮助;记住这是一次语音对话,不要使用列表、Markdown、项目符号或其他通常不会口

大模型的最大bug,回答正确率几乎为零,GPT到Llama无一幸免

我让GPT-3和Llama学会一个简单的知识:A就是B,然后反过来问B是什么,结果发现AI回答的正确率竟然是零。这是什么道理?近日,一个叫「逆转诅咒」(ReversalCurse)的新概念成为了AI圈热议的话题,现在流行的所有大语言模型全部都中招了。面对简单到不能再简单的问题,它们的准确率不仅是接近为零,而且看不出有增加正确率的可能性。而且,研究人员发现,这个大bug与模型体量,问的问题什么的都没有关系。我们说AI发展到预训练大模型阶段,终于看起来像是掌握了一点逻辑思维,结果这次却像是被打回了原形。图1:GPT-4中的知识不一致现象。GPT-4正确给出了汤姆・克鲁斯母亲的名字(左)。然而当输入

MacOS Sonoma 也无法幸免,新型 Mac 恶意软件 Realst 曝光

7月27日消息,网络安全专家iamdeadlyz近日发现了名为“Realst”的恶意软件,目前正大规模窃取加密货币钱包,即便是正在开发中的macOSSonoma也无法幸免。研究人员发现,黑客将“Realst”伪装成区块链游戏,向Windows和macOS平台用户分发。黑客使用了BrawlEarth,WildWorld,Dawnland,Destruction,Evolion,Pearl,OlympofReptiles和SaintLegend等具有欺骗性的名称。黑客在社交媒体平台上推广这些游戏,通过私信的方式分发访问代码,让用户直接点击链接,跳转到网站下载虚假游戏客户端。在Windows平台上,