神经网络
-
CLIP当RNN用入选CVPR:无需训练即可分割无数概念|牛津大学&谷歌研究院
CaR(CLIP as RNN)是一种创新的循环神经网络框架,能够在无需额外训练数据的情况下,有效地进行零样本语义和指代图像分割任务。它通过保留预训练视觉-语言模型的广泛词汇空间,并利用迭代过程不断优化文本查询与掩膜提议的对齐度,显著提升了分割质量。
-
快速学会一个算法,CNN
神经网络是一种深度学习方法,源自人类大脑生物神经网络的概念。它由大量相互连接的人工神经元(也称为节点或单元)组成,每个神经元接收输入,进行简单处理后生成输出,并将结果传递给下一层的神经元。
-
零基础也能搞懂卷积神经网络原理!超详细!
相信对AI兴趣浓厚的小伙伴们,一定对卷积神经网络并不陌生, 今天我们将从零开始走进卷积神经网络的世界!
-
Meta首发「变色龙」挑战GPT-4o,34B参数引领多模态革命!10万亿token训练刷新SOTA
GPT-4o发布不到一周,首个敢于挑战王者的新模型诞生!最近,Meta团队发布了「混合模态」Chameleon,可以在单一神经网络无缝处理文本和图像。10万亿token训练的34B参数模型性能接近GPT-4V,刷新SOTA。
-
ICLR 2024 | 联邦学习后门攻击的模型关键层
本文重点关注如何在有防御保护的训练框架下,对联邦学习发起后门攻击。本文发现后门攻击的植入与部分神经网络层的相关性更高,并将这些层称为后门攻击关键层。
-
探索使用对比损失的孪生网络进行图像相似性比较
在这篇文章中,我们将深入了解Siamese网络的细节,探讨对比损失的概念,并探讨这两个组件如何共同工作以创建一个有效的图像相似性模型。
-
生成式人工智能格局:2024年及以后的趋势
在本篇生成式人工智能领域指南中,我们将探讨生成式人工智能的能力,以及它是如何出现并变得如此流行的。我们还将研究生成式人工智能领域的当前趋势,并预测消费者在不久的将来对这项技术的期望。
-
连续学习不怕丢西瓜捡芝麻,神经形态方法保护旧知识
来自北京大学林宙辰教授团队的研究者们提出了一种新的基于赫布学习的正交投影的连续学习方法,其通过神经网络的横向连接以及赫布与反赫布学习,以神经形态计算的方式提取神经元活动的主子空间并对突触前神经元的活动迹进行投影,实现了连续学习中对旧知识的保护。
-
巧解「数据稀缺」问题!清华开源GPD:用扩散模型生成神经网络参数
清华大学电子工程系城市科学与计算研究中心最近提出了一种新的时空少样本学习方法,旨在解决城市计算中广泛存在的数据稀缺性问题。该方法利用了利用扩散模型来生成神经网络参数,将时空少样本学习转换为扩散模型的预训练问题,可根据prompt(提示)生成定制的神经网络,从而适应不同数据分布和城市特征。
-
1.3ms耗时!清华最新开源移动端神经网络架构 RepViT
本文重点探讨了在资源有限的移动设备上,通过重新审视轻量级卷积神经网络的设计,并整合轻量级 ViTs 的有效架构选择,来提升轻量级 CNNs 的性能。
-
神经网络之父Hinton最新公开演讲:数字智能会取代生物智能吗?
我们没有关于进化的模型,但对于神经网络而言就大不一样了,我们有模型描述神经网络中发生的这些复杂过程,我们知道在前向传播中会发生什么,我们不是通过测量,而是通过计算,来查看改变权重将如何影响事情。
-
基于神经网络的偏微分方程求解器新突破:北大&字节研究成果入选Nature子刊
基于神经网络的量子变分蒙特卡洛方法(NNVMC)已成为量子化学 - 从头计算领域中一项前沿技术。它具备精度高、适用范围广等优点。但它的阿克琉斯之踵在于过高的计算成本,这也限制了该方法在实际化学问题中的应用。
-
解锁SLAM新纪元!基于NeRF和3D GS方法综述
尽管NeRF及其变体有可能捕捉场景的3D几何结构,但这些模型是在神经网络的权重中隐含定义的。通过3D网格获得场景的显式表示对于3D重建应用是可取的。
-
YOLO不死!YOLOv9出炉:性能速度SOTA~
本文提出使用PGI来解决信息瓶颈问题以及深度监督机制不适用于轻量级神经网络的问题。设计了GELAN,这是一个高效且轻量级的神经网络。
-
打入AI底层!NUS尤洋团队用扩散模型构建神经网络参数,LeCun点赞
研究团队提出了一种用于生成神经网络参数的扩散模型p(arameter)-diff。用它来生成网络参数,速度比直接训练最多提高44倍,而且表现毫不逊色。