RAG
-
RAG 架构如何克服 LLM 的局限性
虽然 RAG 是一个强大的模型,可以加强 AI 环境,但 LLM 和向量数据库领域的不断进步表明实时 AI 环境仍处于起步阶段:未来充满了可能性。
-
使用Rag和Sem-Rag提供上下文增强AI编码助手
选择通过 RAG 和 SEM-RAG 等高级技术融入上下文感知的人工智能编码助手,标志着软件开发工具演变中的变革性一步。
-
为什么你的RAG不起作用?失败的主要原因和解决方案
无数企业正在尝试使用检索增强生成(RAG),但在制作这些系统达到生产质量时普遍会感到失望。因为他们的RAG不仅运行效果差,而且对于如何改进和如何进行后续的工作也感到十分的迷茫。
-
知识图谱检索增强的GraphRAG(基于Neo4j代码实现)
为了存储知识图谱数据,首先需要搭建一个 Neo4j 实例。最简单的方法是在 Neo4j Aura 上启动一个免费实例,它提供了 Neo4j 数据库的云版本。当然,也可以通过docker本地启动一个,然后将图谱数据导入到Neo4j 数据库中。
-
从大模型(LLM)、检索增强生成(RAG)到智能体(Agent)的应用
结合RAG技术和智能体,系统能够实时从供应商数据库、仓库库存记录和销售数据中检索关键信息,智能调整库存水平,减少库存积压和缺货风险。
-
离大模型落地应用最近的工程化技术(RAG)
RAG技术的应用场景非常广泛,通过召回相关的准确信息来缓解大模型的幻觉问题,有效地弥补了大语言模型在处理实时信息和大规模知识库方面的不足,同时结合了大语言模型的强大的语言理解和生成能力,显著提升了生成内容的质量和实用性。
-
除了RAG,还有这五种方法消除大模型幻觉
最近,ServiceNow通过RAG减少了结构化输出中的幻觉现象,提高了大型语言模型(LLM)的性能,实现了域外泛化,同时最小化了资源使用。
-
基于LangChain自查询检索器的RAG系统开发实战
本文介绍RAG(检索增强生成)技术并基于LangChain框架的自查询检索器来开发一个实战型电影推荐系统。
-
理解GraphRAG(一):RAG的挑战
检索增强生成(RAG)是一种通过外部知识源增强现有大型语言模型(LLM)的方法,以提供和上下文更相关的答案。
-
LLM和RAG技术的比较探索
LLM和RAG都代表着人工智能理解和生成类人文本能力的重大进步。在LLM和RAG模型之间进行选择需要权衡NLP项目的独特需求。
-
如何测试大型语言模型
投资生成式人工智能的公司发现,测试和质量保证是两个最需要改进的关键领域。以下是针对嵌入生成式AI应用中的LLMs(大型语言模型)的四种测试策略。
-
华人又来炸场!一个命令工具让GPT-4干掉Devin和RAG!Jim Fan:提示工程2.0没必要了!
SWE-agent是一款用于自主解决Github存储库问题的新系统,在SWE-bench上取得了与Devin相似的准确度,平均耗时只有93s,而且重要的是,开源!!!
-
使用LangChain和LangGraph大幅提升RAG效果
现在,当处理现实世界的问题时,一个常见的问题是希望找到介于链和代理之间的解决方案。即不像链那样硬编码,但也不像代理那样完全由LLM驱动。
-
LLM、RAG虽好,但XGBoost更香!
大型语言模型(LLMs)产生文本输出,但这里的重点在于利用LLMs生成的内部嵌入(潜在结构嵌入),这些嵌入可以传递给像XGBoost这样的传统表格模型。虽然Transformers无疑已经彻底改变了生成式人工智能,但它们的优势在于处理非结构化数据、序列数据以及涉及复杂模式的任务。
-
提升RAG检索质量的三个高级技巧(查询扩展、交叉编码器重排序和嵌入适配器)
现介绍三种能够有效提高检索能力的技术,即查询扩展(Query expansion),跨编码器重排序(Cross-encoder re-ranking),嵌入适配器(Embedding adaptors),可以支持检索到更多与用户查询密切匹配的相关文档,从而提高生成答案的影响力。