人工智能
-
超强!必会的十大机器学习算法
梯度提升是一种先进的机器学习技术。它依次构建多个弱预测模型(通常是决策树)。每个新模型都逐渐最小化整个模型的损失函数(误差)。
-
Karpathy新教程爆火,网友抢着送他H100:从头复现GPT-2训练
网络结构是GPT-2,但许多超参数设置遵循了GPT-3的那一套。Karpathy分析,按照Chinchilla定律的标准,GPT-2在100B tokens上训练应该属于过度训练了,后面收益递减,124M模型按计算2.5Btokens就够。
-
AlphaFold 3不开源,统一生物语言大模型阿里云先开了!
模型名为LucaOne,由阿里云飞天实验室生物智能计算团队打造。相比AlphaFold 3因未开源遭到650多名学者联名批评,LucaOne训练推理代码及相关数据目前均已开源。
-
用GPT-3.5生成数据集!北大天工等团队图像编辑新SOTA,可精准模拟物理世界场景
在一组预训练模型,比如GPT-3.5、Video-LLava 和 SDXL的支持下,建立了一个带有世界指令的多模态数据集。
-
马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B
马斯克最近哭穷表示,xAI需要部署10万个H100才能训出Grok 3,影响全球的大模型算力荒怎么解?昨天开源的这款MoE大模型,只用了1/19算力、1/19激活参数,性能就直接全面对标Llama 3-70B!
-
奥特曼挂帅新团队,OpenAI新一代大模型开训,前任高管却「投敌」了
自 OpenAI 于 2022 年底推出 ChatGPT 以来,人工智能安全在整个科技领域迅速受到重视,并引发了生成式人工智能产品和投资的热潮。
-
AGI渐行渐近,该加速还是要踩刹车?
马斯克在今年早些时候预测,AGI可能会在2026年投入使用。DeepMind联合创始人、首席AGI科学家Shane Legg在一次访谈中认为,2028年,人类有50%的概率开发出第一个AGI。然而百度CEO李彦宏的观点则更加审慎,他认为AGI还需要10年以上的时间才能出现。
-
Gartner 问卷调查结果:仅少部分组织具备成熟的人工智能流程
近一半(49%)的受访企业表示,他们面临的最大挑战是估算和实现人工智能项目的价值。Gartner 发现,人工智能项目可以支持的五项业务成果分别为收入增长、成本优化、风险降低、客户体验和员工生产力的提高。
-
LlamaIndex:如何为大模型加载一个AI知识库?
大模型,如何用到产业中?
-
谷歌搜索算法内幕被扒,2500页巨细文件实名泄密!搜索排名谎言被揭穿
就在刚刚,一份2500页的内部文档泄露,谷歌搜索算法的内幕,让不少人大跌眼镜。
-
和GPT-4这些大模型玩狼人杀,人类因太蠢被票死,真·反向图灵测试
最近,一位昵称「Tore Knabe」的网友在 X 平台发布的一段视频引发了人们的讨论。
-
GPT-5倒计时!奥特曼踢走Ilya得逞,宫斗惊人内幕再曝光
解散Ilya的超级对齐团队之后,奥特曼再造了一个新的「安全委员会」。OpenAI称正训练离AGI更近一步的下一代前沿模型,不过在这90天评估期间,怕是看不到新模型发布了。
-
Meta AI的首席执行官LeCun:不要从事LLM工作
尽管LeCun反对一股脑全部研究LLM,但Transformer训练模型仍在不断发展。AI/ML顾问Dan Hou谈到了GPT-4o,并强调了其训练模型。
-
一年心血被毁,OpenAI超级对齐负责人愤而出走Anthropic!Ilya去向依旧成谜
出走OpenAI的超级对齐团队负责人Jan Leike,刚刚官宣了自己加入Anthropic的消息,并且开始高调招兵买马。同时,外界也开始对Ilya的去向纷纷猜测:是去Anthropic,xAI,还是自立门户?
-
2500页算法文档泄露!搜索史上最强黑箱曝光,谷歌翻车再升级?
对强大如谷歌的搜索玩家来说,如何确保搜索算法优化既能服务于大众,又不会破坏那些为网络贡献高质量内容的生态基石,也许才是能够长远发展的根本所在。