jjzjj

神经网络之父Hinton最新公开演讲:数字智能会取代生物智能吗?

GeoffreyHinton教授,人称“人工智能教父”,他是英国皇家学会院士(FRS),也是加拿大皇家学会院士(FRSC)和加拿大国家勋章(CC)获得者。牛津大学于2024年2月19日在谢尔顿剧院举办了年度Romanes讲座,GeoffreyHinton做了题为“数字智能会取代生物智能吗?”的演讲。图片Romanes讲座是牛津大学的年度公开讲座,该讲座创建于1891年,由牛津大学副校长特别邀请来自艺术、科学或文学界最杰出的公众人物做演讲。Hinton在演讲中讨论了人工智能的危险性,以及如何确保它不会控制人类,从而导致人类灭绝。他说,“如果数字超级智能真的想要控制世界,我们不太可能阻止它。”图片

NeurIPS已成为了AI人才招聘的最大盛会,连Hinton都“应聘”过

在一周前美国举行的年度最热门的人工智能大会NeurIPS2023上,有超过1万名世界顶尖AI研究人员聚集在此。而除了研究员之外,中国科技公司和华尔街公司是其中最突出的参会者,他们都背负着抢夺AI人才的任务。大模型人才最受欢迎随着今年ChatGPT和生成式AI的火爆,大模型相关的AI博士生比以往任何时候都更受欢迎。许多AI博士生都希望能获得谷歌或OpenAI等AI公司的工作机会,并拿下理想情况下50万美元+年薪的offer。今年的大模型浪潮已经证明,开放式机器学习研究可以带来相当客观的利润丰厚,让公司有令人信服的理由投入更多资源,这是中国科技公司在此次活动中如此引人注目的一个原因。图注:Neur

Hinton和LeCun再交锋,激辩LLM能否引发智能奇点!LeCun:人类理解能力碾压GPT-4

AI大佬的激战再次掀起。Hinton在线直接点名LeCun,说他对AI接管风险的看法对人类的影响微乎其微。这意味着,他把自己的意见看得很重,而把许多其他同样有资格的专家的意见看得很轻。在Hinton看来,他们之间意见分歧的核心论点是「LLM是真正理解自己说什么」。当然了,一直站在末日派中的Hinton认为大模型有了意识,而LeCun、吴恩达等人却认为LLM不明白自己所说。对此,LeCun反驳道,大模型显然对其阅读和生成的内容有「一些」理解,但这种理解是非常有限和肤浅的。总的来说,目前自回归大模型没有对推理和规划能力,远未及人类水平的智能。恰在近日,LeCun发表了一篇新论文,再提自回归LLM做

“AI教父”Geoffrey Hinton:智能进化的下一个阶段

来源| TheRobotBrainsPodcastOneFlow编译翻译 | 杨婷、贾川ChatGPT等大模型带来的震撼技术革新,让GeoffreyHinton突然改变了自己的一个想法。这位75岁的“人工智能教父”意识到,数字智能优于生物智能的进程无法避免,超级智能很快就会到来,他必须要对其风险发出警示,而人类需要找到一种方法来控制AI技术的发展。而在此之前,他一直认为,智能机器人不会像人类一样聪明,不会朝着AGI的方向发展。为了自由探讨AI风险,Hinton最近辞任Google工程副总裁,今年正是他在那里工作的第十年。十年前,他与两位学生AlexKrizhevsky、Ilya Sutskev

为什么AI教父Hinton会恐惧自己亲手创造的人工智能?

GeoffreyHinton一生都在教计算机学习。现在他担心人造大脑会控制人类的未来。纽约客记者面对面深度采访了Hinton,从他人生经历展开,向大众解释了为什么,人工智能之父,会在自己的晚年,要疾呼:AI如果不加以控制将可能毁灭人类。「人工智能如果能获得更多控制权,会有利于他实现几乎一切目标」Hinton谈到人工智能的未来时说道,「研究问题是:如何防止它们想要控制一切?现在没有人知道答案。」在你的大脑中,神经元排列成大大小小的网络。随着你的每一个动作、每一个想法,这些网络都在发生变化:神经元被纳入或排除,它们之间的联系在不断加强或者减弱。这个过程无时无刻不在进行——就在你读这些文字的时候,它

活久见!AI巨佬为“人类灭绝论”正面开撕,Hinton吴恩达LeCun下场,马斯克强势围观

活久见,AI巨佬们撸起袖子线上“对喷”,一“架”直接干上热搜了。Bigname一个接一个出现不说:吴恩达、Hinton、LeCun、哈萨比斯……甚至吵到稳如Hinton,都开麦阴阳怪气起来:是是是,好人力量大,我们应该把核武器也给开源了。搞得如此面红耳赤,为的还是“大模型会不会毁灭人类”这个热点话题。反方一派,矛头直指科技巨头搞垄断。吴恩达就言辞犀利地指出:某些人传播(AI灭绝人类的)恐惧,只是为了搞钱。正方这边也不甘示弱,最新消息是,被指“搞钱派”代表人物的DeepMindCEO哈萨比斯正面回怼:这不是恐吓。AGI的风险如果不从现在就开始讨论,后果可能会很严重。我不认为我们会想在危险爆发之前

图灵奖得主吵起来了,LeCun:Bengio、Hinton等的AI灭绝论是荒谬的

关于AI风险的问题,各路大佬们也是意见不统一。有人带头签署联名信,呼吁AI实验室应立即暂停研究,深度学习三巨头GeoffreyHinton、YoshuaBengio等都支持这一观点。就在近几日,Bengio、Hinton等再发联名信《在快速发展的时代管理人工智能风险》,呼吁在开发AI系统之前,研究者应该采取紧急治理措施,将安全和道德实践纳入重点,呼吁各国政府应该采取行动,管理AI带来的风险。文中提到了一些紧急治理措施,例如,让国家机构也参与进来,从而防止人们对AI的滥用。为了实现有效的监管,政府需要全面了解人工智能的发展。监管机构应采取一系列措施,如模型注册、对举报人进行有效保护以及对模型开发

Bengio、Hinton、张亚勤等AI大佬再发联名信!AI太危险,我们需要重新定位

AI风险管理,再度被AI大佬提上了日程。就在刚刚,一封由Bengio、Hinton、姚期智(AndrewYao)、张亚勤等知名专家签署的联名信引起了许多人的关注。这篇题为「在快速发展的时代管理人工智能风险」的文章,也即将发表在arXiv上。有网友称,已经太晚了。联名信全文在AI的快速发展中,本文作者对即将到来的强大AI系统的大规模风险达成了共识。他们呼吁在开发这些系统之前,采取紧急治理措施,并在AI研发中向安全和道德实践进行重大转变。2019年,GPT-2能力很有限,还无法可靠地数到10。仅仅4年后,深度学习系统就可以编写软件,按需生成逼真的场景,对知识性话题提供建议,并结合语言和图像处理来控

Hinton的预言要实现了!美加顶尖大学Nature发文:全科医学人工智能GMAI不止要取代「放射科医生」

图灵奖得主、深度学习先驱Hinton曾预言到,「人们现在应该停止培训放射科医生。很明显,在五年内,深度学习会比放射科医生做得更好。这可能需要10年的时间,但我们已经有了足够多的放射科医生。」我认为,如果你是一名放射科医生,你就像一只已经走到悬崖边缘、但还没有往下看的野狼。近七年过去了,人工智能技术仅仅参与并替代了部分放射员的技术工作,并且存在功能单一、训练数据不足等问题,让放射科医生的饭碗依然握得很牢。但ChatGPT类的基础模型发布后,人工智能模型的能力得到了前所未有的提升,可以处理多模态数据、无需微调即可适应新任务的in-context学习能力,高度灵活、可重复使用的人工智能模型的迅速发展

图灵奖得主Hinton:我已经老了,如何控制比人类更聪明的AI交给你们了

还记得大牛们就“AI是否可能灭绝人类”,分成了两大阵营吗?由于并不理解为啥“AI会造成风险”,吴恩达最近开启了一个对话系列,去找两名图灵奖得主聊聊:AI究竟存在哪些风险?有意思的是,在相继和YoshuaBengio以及GeoffreyHinton进行深度对话后,他和他们“达成了不少共识”!他们一致认为,双方应该共同讨论AI具体会产生什么风险,以及它究竟“理解了什么”。Hinton还特意cue了“反方代表”图灵奖得主YannLeCun:学术界在这个问题上分歧太大了,包括我们非常尊重的学者如Yann,就认为大模型并不理解它自己在说什么。马斯克对这次谈话也很感兴趣:除此之外,Hinton最近还在智源
12