jjzjj

何恺明团队12页论文新作剑指AIGC!“新CLIP”只需一个trick,训练速度快3.7倍!性能不降反升...

杨净艳艳发自凹非寺量子位|公众号QbitAI何恺明团队又上新了。这次,他们的成果围绕当下最火的AIGC背后的CLIP展开。——只在该模型的极简结构上,施加了一个简单的mask,就让新模型的速度快了3.7倍。同时,性能还可以做到不降反升。团队表示,希望他们的工作能帮助未来视觉语言模型实现规模化。这波,让大家直呼:不愧是何恺明,还是熟悉的味道啊~是的,还是“大道至简”的feel。就连论文也一如既往,短短12页,一行公式也没有。一起来拜读吧。引入类似MAE的mask本文提出了一个用来训练CLIP的快速、简单且有效的方法FLIP。FastLanguage-ImagePre-training(快速文本-

LLaMA长度外推高性价比trick:线性插值法及相关改进源码阅读及相关记录

前言最近,开源了可商用的llama2,支持长度相比llama1的1024,拓展到了4096长度,然而,相比GPT-4、Claude-2等支持的长度,llama的长度外推显得尤为重要,本文记录了三种网络开源的RoPE改进方式及相关源码的阅读。关于长度外推性:https://kexue.fm/archives/9431关于RoPE:https://kexue.fm/archives/82651、线性插值法论文:EXTENDINGCONTEXTWINDOWOFLARGELANGUAGEMODELSVIAPOSITIONINTERPOLATION链接:https://arxiv.org/pdf/230

YOLOv5的Tricks | 【Trick13】YOLOv5的detect.py脚本的解析与简化

如有错误,恳请指出。在之前介绍了一堆yolov5的训练技巧,train.py脚本也介绍得差不多了。之后还有detect和val两个脚本文件,还想把它们总结完。在之前测试yolov5训练好的模型时,用detect.py脚本简直不要太方便,觉得这个脚本集成了很多功能,今天就分析源码一探究竟。关于如何使用yolov5来训练自己的数据集在之前已经写了一篇文章记录过:yolov5的使用|训练Pascalvoc格式的数据集,所以在这篇文章中就主要分析源码,再稍微提及一下detect的可用参数。文章目录1.Detect脚本使用2.Detect脚本解析2.1主体部分2.2数据集构建2.3绘图部分3.Detec

Dedecms V110最新版RCE---Tricks

前言刚发现Dedecms更新了发布版本,顺便测试一下之前的day有没有修复,突然想到了新的tricks去实现RCE。文章发布的时候估计比较晚了,一直没时间写了。利用/uploads/dede/article_string_mix.php/uploads/dede/article_template_rand.php/uploads/dede/sys_task.php......我发布的文档->>>>添加文档->>>>站内选择进行文件上传/uploads/dede/content_list.php](http://dedecms.xyz:8066/uploads/dede/content_list

python - 什么是特征哈希(hashing-trick)?

我知道特征散列(hashing-trick)用于降低维度和处理位向量的稀疏性,但我不明白它是如何工作的。谁能给我解释一下。是否有任何python库可用于进行特征散列?谢谢。 最佳答案 在Pandas上,你可以使用这样的东西:importpandasaspdimportnumpyasnpdata={'state':['Ohio','Ohio','Ohio','Nevada','Nevada'],'year':[2000,2001,2002,2001,2002],'pop':[1.5,1.7,3.6,2.4,2.9]}data=pd.D

python - 什么是特征哈希(hashing-trick)?

我知道特征散列(hashing-trick)用于降低维度和处理位向量的稀疏性,但我不明白它是如何工作的。谁能给我解释一下。是否有任何python库可用于进行特征散列?谢谢。 最佳答案 在Pandas上,你可以使用这样的东西:importpandasaspdimportnumpyasnpdata={'state':['Ohio','Ohio','Ohio','Nevada','Nevada'],'year':[2000,2001,2002,2001,2002],'pop':[1.5,1.7,3.6,2.4,2.9]}data=pd.D

html - 16 :9 padding-bottom trick not working as expected in FireFox

我一直在尝试为内容block实现响应式16:9比例技巧,虽然在Chrome中获得了预期的结果,但其他浏览器(如FireFox和Edge)的显示方式完全不同,并非预期。.streamContainer{position:absolute;width:80%;height:calc(100%-120px);display:flex;bottom:0px;flex-direction:column;justify-content:center;box-sizing:border-box;transition:height0.5s;background:blue;}.streamRatio{p

html - 16 :9 padding-bottom trick not working as expected in FireFox

我一直在尝试为内容block实现响应式16:9比例技巧,虽然在Chrome中获得了预期的结果,但其他浏览器(如FireFox和Edge)的显示方式完全不同,并非预期。.streamContainer{position:absolute;width:80%;height:calc(100%-120px);display:flex;bottom:0px;flex-direction:column;justify-content:center;box-sizing:border-box;transition:height0.5s;background:blue;}.streamRatio{p

trick : Trygub num

trick大意我对于这个trick的理解为:支持位运算的高精度维护一个以\(b\)为基数的大数\(N\),并支持以下功能:给定(可能是负)整数\(|x|,|y|\leqslantn\),将\(xb^y\)加到\(N\)。\(N\geqslant0\)时,给定\(k\),打印\(N\)的第\(k\)位数字(指以\(b\)为基底意义下的)。检查\(N\)是正值、负值还是等于\(0\)。操作\(O(\logn)\)均摊时间复杂度和\(O(q)\)内存。并且只需要map进行实现,相比于线段树等数据结构维护非常的好写。例题及实现:[NOI2017]整数题意简述:一个整数\(x\),进行\(n\)次操作,

突破自监督学习效率极限!马毅、LeCun联合发布EMP-SSL:无需花哨trick,30个epoch即可实现SOTA

过去几年,无监督和自监督学习(SSL)取得了巨大进步,通过SSL学习得到的表征在分类性能上甚至赶上了有监督学习,在某些情况下甚至还能超过有监督学习,这一趋势也为视觉任务的大规模数据驱动无监督学习提供了可能。虽然自监督学习的实验性能惊人,但大多数自监督学习方法都是相当「低效」的,通常需要数百个训练epoch才能完全收敛。  最近,马毅教授、图灵奖得主YannLeCun团队发布了一种新的自监督学习方法Extreme-Multi-PatchSelf-Supervised-Learning(EMP-SSL),证明了高效自监督学习的关键是增加每个图像实例中的图像块数量。论文链接:https://arxi