LLM
-
Intel Hackathon 线上竞赛——大语言模型(LLM)创新应用开发大赛获奖名单公布
本次大赛,得到了各行各业开发者的积极参与,他们充分发挥创意和技术能力,提交了大量的优秀作品,带来了更多创新和实用的解决方案,很好地推动大语言模型技术的发展和应用。经过大会评审团的最终评审,现将本次大赛的获奖名单公布。
-
RAG 架构如何克服 LLM 的局限性
虽然 RAG 是一个强大的模型,可以加强 AI 环境,但 LLM 和向量数据库领域的不断进步表明实时 AI 环境仍处于起步阶段:未来充满了可能性。
-
大模型到底有没有智能?一篇文章给你讲明明白白
在 LLM 的世界里,每个 token 都有一个独一无二的数字身份证。而 Tokenizer,就是文本和 token 之间的 “翻译官”,将人类的语言转化为 LLM 能理解的编码,也将 LLM 的思维解码为人类的文字。
-
本地使用Groq Llama 3 70B的逐步指南
本教程将介绍Groq LPU推理引擎以及如何在笔记本电脑上使用API和Jan AI本地访问它。本文还将把它整合到VSCode中,以帮助我们生成代码、重构代码、记入文档并生成测试单元。本文将免费创建我们自己的人工智能编程助手。
-
LLM | Yuan 2.0-M32:带注意力路由的专家混合模型
AI2推理挑战(ARC)基准是一个多选QA数据集,包含从3年级到9年级科学考试的问题。它分为简单和挑战两部分,后者包含需要进一步推理的更复杂部分。论文在挑战部分测试论文的模型。
-
LLM微调技术LoRA图解
本文将按照论文《LoRA:大型语言模型的低阶适配》中提出的方法详细介绍如何使用LoRA技术对大型语言模型进行微调。
-
为什么你的RAG不起作用?失败的主要原因和解决方案
无数企业正在尝试使用检索增强生成(RAG),但在制作这些系统达到生产质量时普遍会感到失望。因为他们的RAG不仅运行效果差,而且对于如何改进和如何进行后续的工作也感到十分的迷茫。
-
GPT Researcher:破解复杂研究的AI利器
本文展示了如何通过一条提示词,让GPT Researcher 生成对应的研究报告。这展示了GPT Researcher 在自动化研究领域的巨大潜力,为未来的研究工作提供了新的思路和方法。
-
知识图谱检索增强的GraphRAG(基于Neo4j代码实现)
为了存储知识图谱数据,首先需要搭建一个 Neo4j 实例。最简单的方法是在 Neo4j Aura 上启动一个免费实例,它提供了 Neo4j 数据库的云版本。当然,也可以通过docker本地启动一个,然后将图谱数据导入到Neo4j 数据库中。
-
清洁数据,可信模型:确保您的LLM拥有良好的数据卫生
在业务环境中使用 LLM 不再是一种选择;它对于保持领先地位至关重要。这意味着组织必须制定措施来确保模型安全和数据隐私。
-
开发arXiv论文引擎机器人程序:基于RAG+LangChain+Chainlit+ChromaDB
本文将完整细致地介绍如何使用RAG技术与LangChain、Chainlit Copilot组件以及Literal AI可观测性特征联合开发一款语义论文搜索引擎程序。
-
LLM的「母语」是什么?
在以英语为主的语料库上训练的多语言LLM,是否使用英语作为内部语言?对此,来自EPFL的研究人员针对Llama 2家族进行了一系列实验。
-
ChatGPT真能记住你的话吗?DeepMind与开源大佬揭示LLM记忆之谜
LLM有记忆能力吗?有,也没有。虽然ChatGPT聊天时好像可以记住你之前说的话,但实际上,模型在推理时记不住任何内容,而且它们在训练时的记忆方式也不像我们想象的那么简单。
-
AI大牛karpathy点赞SEAL榜单,LLM评估的状况过去是非常糟糕的!
即使LLM开发者尽了最大努力,防止测试集渗透到训练集中(以及答案被记住)也是困难的。当然,你可以尽力过滤掉完全匹配的项。你也可以过滤掉近似匹配的项,比如使用n-gram重叠等。但是你如何过滤掉合成数据重写,或者有关数据的相关在线讨论呢?
-
如何将大型语言模型(LLM)转换为嵌入模型
嵌入模型已经成为大型语言模型(LLM)应用的重要组成部分,可以实现检测文本相似度、信息检索和聚类等任务。然而,与生成任务中使用的架构不同,嵌入模型主要基于Transformer架构。