jjzjj

TensorRT-LLM

全部标签

【LLM安全】Privacy in Large Language Models: Attacks, Defenses and Future Directions(综述)

文章目录PrivacyAttacksBackdoorAttacksBackdoorAttackswithPoisonedDatasetsBackdoorAttackswithPoisonedPre-trainedLMsBackdoorAttackswithFine-tunedLMsPromptInjectionAttacksTrainingDataExtractionAttacksMIA:MembershipInferenceAttacksAttackswithExtraInformationAttributeInferenceAttacksEmbeddingInversionAttacksG

GPT-4正接管人类数据专家!先验知识让LLM大胆预测,准确率堪比传统方式

在数据科学中,AI研究员经常面临处理不完整数据集的挑战。然而,许多已有的算法根本无法处理「不完整」的数据序列。传统上,数据科学家会求助于专家,利用他们的专业知识来填补空白,然而这一过程既耗时,却又不实用。如果AI可以接管专家的角色,又会如何呢?近日,来自德国人工智能中心、大阪公立大学等团队的研究人员,调查了LLM能否足以充当数字专家。毕竟,当前大模型都在大量文本的基础上进行了训练,可能对医学数据、社会科学等不同主题的问题有着深刻的理解。论文地址:https://arxiv.org/pdf/2402.07770.pdf研究人员通过将LLM的答案与实际数据进行比较,并建立了处理数据差距的统计方法。

高性能 LLM 推理框架的设计与实现

一、大语言模型推理概要介绍与传统的CNN模型推理不同,大语言模型的推理通常会分成prefill和decoding两个阶段。每一个请求发起后产生的推理过程都会先经历一个Prefill过程,prefill过程会计算用户所有的输入,并生成对应的KV缓存,再经历若干个decoding过程,每一个decoding过程,服务器都会生成一个字符,并将其放入到KV缓存当中,之后依次迭代。由于decoding过程是逐个字符生成的,每一段答案的生成都需要很长时间,会生成很多字符,所以decoding阶段的数量非常多,占到整个推理过程的90%以上。在Prefill过程中,虽然计算量很大,因为要一次性完成用户输入的所

GPT-4、Gemini同时被曝重大缺陷,逻辑推理大翻车!DeepMind上交校友团队发现LLM严重降智

最近,谷歌DeepMind和斯坦福的研究人员发现:大模型在处理逻辑推理任务时,问题中信息呈现的顺序对模型的表现有着决定性的影响。论文地址:https://arxiv.org/abs/2402.08939具体来说,当信息按照逻辑上的自然顺序排列时,模型的表现会更好。这一发现不仅适用于一般的逻辑推理问题,对于数学问题也同样有效。比如,如果某个证明任务的条件是:1.如果A,那么B;2.如果B,那么C;3.A为真。要求大模型证明C为真,如果条件按照1,2,3的顺序呈现,那么大模型的成功率会比2,1,3的条件呈现顺序高出很多。所以,以后用大模型,言简意赅,符合逻辑地提出问题能让它性能更强。上图展示了一个

LeCun怒斥Sora是世界模型,自回归LLM太简化了

最近几天,Sora成为了全世界关注的焦点。与之相关的一切,都被放大到极致。Sora如此出圈,不仅在于它能输出高质量的视频,更在于OpenAI将其定义为一个「世界模拟器」(worldsimulators)。英伟达高级研究科学家JimFan甚至断言:「Sora是一个数据驱动的物理引擎」,「是一个可学习的模拟器,或『世界模型』」。「Sora是世界模型」这种观点,让一直将「世界模型」作为研究重心的图灵奖得主YannLeCun有些坐不住了。在LeCun看来,仅仅根据prompt生成逼真视频并不能代表一个模型理解了物理世界,生成视频的过程与基于世界模型的因果预测完全不同。图源:https://twitte

秒速出图!体验 TensorRT 加速 Stable Diffusion 图像创作

TensorRT如何加速StableDiffusion?生成式AI图像内容生成技术近年来发展迅速,可以根据人类语言描述生成图片,在时尚、建筑、动漫、广告、游戏等领域有着广泛应用。StableDiffusionWebUI是Github上最为热门的利用生成式AI进行图像生成的项目。它采用ClipText对文字进行编码,然后采用UNet+Scheduler在潜在表示空间(latentspace)上进行Diffusion,最后采用AutoencoderDecoder将第二步生成的扩散信息再转为图像。StableDiffusionPipelineDiffusion模型最大的痛点是生成图片的速度过慢。St

这就是商战?AI原生应用的纵横捭阖;预期中的LLM颠覆为何没发生?教你构建一个糟糕的RAG系统;贾扬清Lepton Search如约开源;生成式AI深度报告 | ShowMeAI日报

👀日报&周刊合集|🎡生产力工具与行业应用大全|🧡点赞关注评论拜托啦!👀Arc浏览器+Perplexity搜索引擎:新生代AI产品开启纵横捭阖https://arc.netArc浏览器是由TheBrowserCompany开发的一款「充满想象力和革命性」的新产品,以其全新的标签管理模式、丝滑的交互、超高的颜值等等功能备受追捧。2023年7月正式推出Mac版本,2023年12月Windows版本开启邀测(之前申请过的伙伴可以查下邮箱📬其实,Arc浏览器一直在探索与AI的结合。2023年10月,Arc浏览器曾推出其AI版本ArcMax,很多AI功能的演示让人眼前一亮:比如自动总结搜索结果中的某个链接

AI系列 - 大语言模型LLM的兴起

目录大语言模型(LLM)起飞AI的影响大模型国外大模型国内大模型LLM的体验大语言模型(LLM)起飞2022年11月,GPT3.5的发布引起了公众的广泛关注。OpenAI一跃成为最炙手可热的高科技公司。AI技术日新周异。世界迎来了一场新的技术范式变革。虽然AI从ChatGPT开始引起普遍的关注,但实际上大语言模型(LLM)领域的研究早年已经在拥有最先进的技术的组织内进行。2017年Google发布的Transformer论文AttentionisAllYouNeed是大语言模型的基础。一般的软件是由人类工程师编写,他们为计算机提供明确的、逐步的指令。LLM是建立在一个使用数十亿个语言词汇进行训

如何很好的理解机器学习模型,为什么大数据(Big data) 和大语言模型(Large Language Model, LLM)会变得那么火,会变得有效?

图例假设红色代表最简单的线性模型,紫色代表多层感知机,绿色代表更深的模型比如ResNet-152等等.圈的大小代表假设空间(模型的参数复杂度),复杂度越高,代表更可能接近,也就是泛化误差更小,在模型内部,如果数据干净,且数据量大,可以更好的让模型达到假设空间上的最优解(也就是更接近的模型,图中为所示),h代表使用现有数据学到的模型,它可能是在假设空间最优的,也可能是随机在假设空间的某个地方的模型.大型语言模型(LLM)如GPT-3和GPT-4之所以有效,很大程度上归功于其庞大的数据量和巨大的假设空间。这两个因素共同作用,使得LLM在理解和生成自然语言方面表现出色。以下是详细解释:大量数据更好的

模型融合、混合专家、更小的LLM,几篇论文看懂2024年LLM发展方向

在过去的2023年中,大型语言模型(LLM)在潜力和复杂性方面都获得了飞速的发展。展望2024年的开源和研究进展,似乎我们即将进入一个可喜的新阶段:在不增大模型规模的前提下让模型变得更好,甚至让模型变得更小。现在,2024年的第一个月已经过去,也许是时候盘点一番新年首月进展了。近日,AI研究者SebastianRaschka发布了一份报告,介绍了四篇与上述新阶段有关的重要论文。它们的研究主题简单总结起来是这样:1.权重平均和模型融合可将多个LLM组合成单个更好的模型,并且这个新模型还没有传统集成方法的典型缺陷,比如更高的资源需求。2.代理调优(proxy-tuning)技术可通过使用两个小型L