大型语言模型
-
平衡可持续性与风险:CIO为何需要考虑小型语言模型
GenAI确实有不可否认的前景,但大型语言模型(LLM)可能并不是在企业中应用它的最佳方式。未来有望出现基于特定数据的、更节能的小型模型,这些模型允许IT部门保持控制。
-
LLM微调技术LoRA图解
本文将按照论文《LoRA:大型语言模型的低阶适配》中提出的方法详细介绍如何使用LoRA技术对大型语言模型进行微调。
-
一文读懂如何基于Ollama在本地运行LLM
“Mixtral有46.7B的总参数,但每个令牌只使用12.9B参数。因此,它以与12.9B型号相同的速度和成本处理输入并生成输出。”
-
一文读懂如何基于 Ollama 在本地运行 LLM
作为一个功能强大且使用便捷的工具套件,Ollama不仅为用户提供了精心策源的优质模型备选,更允许直接引入自有的自定义模型,确保了最大程度的灵活性和定制空间。
-
微调真的能让LLM学到新东西吗:引入新知识可能让模型产生更多的幻觉
大型语言模型(llm)是在巨大的文本语料库上训练的,在那里他们获得了大量的事实知识。这些知识嵌入到它们的参数中,然后可以在需要时使用。这些模型的知识在培训结束时被“具体化”。在预训练结束时,模型实际上停止学习。
-
如何将大型语言模型(LLM)转换为嵌入模型
嵌入模型已经成为大型语言模型(LLM)应用的重要组成部分,可以实现检测文本相似度、信息检索和聚类等任务。然而,与生成任务中使用的架构不同,嵌入模型主要基于Transformer架构。
-
详解生成式人工智能的开发过程
回到机器学习的“古老”时代,在您可以使用大型语言模型(LLM)作为调优模型的基础之前,您基本上必须在所有数据上训练每个可能的机器学习模型,以找到最佳(或最不糟糕)的拟合。
-
Meta LlaMA 3模型深度解析
本文将深入探索当前火热的Llama 3模型背后的转换器架构的细微差别,并分析其在生成式人工智能生态系统的发展前景。
-
从Claude 3中提取数百万特征,首次详细理解大模型的「思维」
Anthropic 已经确定了如何在 Claude Sonnet 中表征数百万个概念。这是对现代生产级大型语言模型的首次详细理解。这种可解释性将帮助我们提高人工智能模型的安全性,具有里程碑意义。
-
Hinton万字访谈:用更大模型「预测下一个词」值得全力以赴
Hinton 认为,大型语言模型通过寻找不同领域的共同结构来进行编码,这种能力使它们能够压缩信息并形成深层次的理解,发现现实世界中人类尚未发现的万事万物的联系,这是创造力的来源。
-
通过检索增强生成(RAG) 增强LLM的实战演练
本文主要介绍如何通过检索增强生成(RAG)增强LLM,并使用LlamaIndex和LangChain作为数据场景,将应用程序部署到Heroku。
-
知识图与大型语言模型的协同作用
从非结构化文本中提取有价值的见解是金融行业的关键应用。然而,这项任务往往超出了简单的数据提取,需要高级推理能力。
-
与机器对话:揭示提示工程的十个秘密
提示工程是说服机器做人类想做之事的最新艺术。本文是关于编写LLM提示必知的10件事。
-
企业拒绝ChatGPT的五大原因
ChatGPT让人们兴奋不已,为什么苹果、亚马逊、摩根大通、德意志银行、三星和埃森哲等这么多企业都禁止使用它呢?主要是由于担心部署像ChatGPT这样的外部大型语言模型(LLM),可能导致敏感数据被传输和存储在企业安全环境之外。
-
LLM 评估新纪元:Arthur Bench 全方位解读
Hello folks,我是 Luga,今天我们来聊一下人工智能(AI)生态领域相关的技术 - LLM 评估 。