生成式人工智能参考架构
在本文中,我们将提供构建端到端生成式人工智能(GenAI)应用程序的主要架构组件和蓝图,这些应用程序已准备好投入生产。在实施和设计这些基于大型语言模型(LLM)的应用程序时,我想特别提到几个关键注意事项。如果你想了解更多关于人工智能的相关内容,可以阅读以下这些文章:
2024年每个开发人员都需要掌握的生成式人工智能技能
Google的Gemini AI模型:揭开人工智能的未来
世界上最好的人工智能模型:谷歌DeepMind的Gemini已经超过了GPT-4!
我尝试了50种人工智能工具,以下是我的最爱
关键注意事项
在目标架构中选择GenAI组件的AI成熟度。
你需要确定你在AI成熟度光谱中的位置,以及为实现支持业务用例的生成式应用架构所需达到的成熟度。因此,你不一定需要每个应用都包含所有这些架构组件;根据项目、业务线或组织的成熟度,你可以从这些架构构件中进行选择。这些体系结构构建块或体系结构组件都可以通过我们在这里提供的模式来构建。每个架构构件都可以通过我们提供的模式进行构建。请记住,模式生成架构,在这种情况下,是生成微架构或设计和构建基于大型语言模型(LLM)应用的特定部分所需的架构构件。我将另行提供一个生成式AI成熟度模型,帮助你了解当前所处的位置以及为成功实施这些应用所需达到的LLM成熟度和复杂度。
选择架构构件内的模式。
假设你决定你需要提示工程,选择后端LLM(例如Google Gemini)来服务你的模型,你需要检索增强,因此有效地达到3级成熟度(详见我们的生成式人工智能成熟度模型)。重要的是即使你现在知道目标成熟度级别是构建具有3级检索增强生成功能的应用程序,仍然有许多方法可以实现架构中的RAG组件。因此,我们将此组件视为一种可以设计和实施不同复杂程度的模式。让我在这里给你一个更详细的分类。rag可以实现为基本rag,中级rag或高级rag或自动化rag。因此,即使你知道该架构构件的目标成熟度级别,仍然需要决定实现该模式的详细实施细节。在本文中,我们将只分解基本级别,在后续文章中,我将更详细地介绍每个架构构件。
预测AI、生成式AI和数据管道都是公平竞争的领域。
值得注意的是,生成式人工智能将包括传统的预测性人工智能以及数据摄取、清理、网格、管道等,模式在传统的软件工程意义上生成架构。随着生成式AI的出现和普及,理解这一领域作为一组模式是很重要的,这些模式由特定上下文和一组特定的力量或权衡与考虑组成的问题解决对组成。在应用模式(即模式的解决方案部分)之后,总会产生一些结果:并不是问题空间中的每个Force都可以通过应用该体系结构组件的模式来解决。因此,有些力量将无法解决,你仍然需要应用额外的模式或技术来解决问题空间中的这些力量。我们在这里提供了一个部分,用于记录结果影响并参考可能有用的其他模式。其中一些模式我们在这里详细阐述了,其他的则很常见且相当直观,因此你可以在文献中查找参考资料以实现它们。
因此,有了这些最初的考虑,让我们深入了解Jedi参考体系结构的每一个架构构件,并对它们进行总体探索,然后从模式的角度来看待它们。
生成式AI参考架构
生成式AI参考架构提供了一组架构构件,这些构件为构建企业级端到端大型语言模型应用程序提供了蓝图。从概念验证阶段到生产级系统,了解这些构件及其实现方法非常重要。对于每个构件,我们将其提供为设计模式或架构模式,在其中我们探讨问题的各个方面、背景、力量或权衡、解决方案、结果影响以及可能的相关模式。
用户界面/用户体验(UI/UX)
会话的用户界面。会话界面利用自然语言处理来实现类似人类的交互。Ram等人在2020年发表的一篇论文[1]讨论了会话AI的进展,强调了迁移学习和强化学习等技术来改进对话系统。论文强调了自然和上下文感知交互对增强用户体验的重要性。
(过度)个性化。用户界面个性化涉及根据个人用户的偏好和需求定制界面。Kocaballi等人在2019年发表的一篇论文[2]探讨了个性化在基于人工智能的健康干预中的作用。作者讨论了个性化界面如何提高用户参与度和对人工智能驱动的建议的依从性,从而带来更好的健康结果。
在构建基于LLM的系统时,一个微妙之处在于利用LLM根据过去历史、当前用户、上下文以及主动预测的响应生成超个性化的下一个最佳用户体验。
因此,你可以想象用户体验中的每一步或每个界面都具有更多的上下文意识,从而根据建议或可能采取的主动下一个最佳操作向用户呈现不同的信息。这引入了智能界面的概念,并通过基于上下文超个性化的分步推荐,使用户体验更丰富、更智能、更主动。
使用Google的Vertex AI平台,你可以构建一个无需代码或低代码交互的用户体验,以及明显的完整代码(基于API的)交互。我们有自己的agent-Builder平台,可以帮助你实现复杂的搜索、对话和应用程序,并立即在你自己的专有数据上进行检索增强,这些数据扎根于你自己的企业存储库和数据,无论是结构化数据还是非结构化数据。这可以通过Vertex AI Search和Vertex AI Conversation来实现,以构建基于代理的应用程序,支持客户代理、员工代理、数据代理等对话代理。
问题/挑战
- 挑战在于创造直观和用户友好的界面,实现无缝的人机交互。这包括设计允许用户自然地与人工智能系统交互的界面,有效地利用它们的功能。一个关键方面是开发会话代理,引导用户完成任务,增强他们的整体体验。例如,帮助用户浏览复杂企业应用程序的虚拟助手。
环境/背景
- 用户通过各种渠道与人工智能互动,包括搜索引擎、聊天机器人和企业软件。随着人工智能融入日常工具,无缝体验至关重要。例如,用户可能会与人工智能搜索引擎进行交互,然后切换到会话代理进行更复杂的查询,期望获得连贯一致的体验。
注意事项/权衡
- 为AI设计UI/UX需要平衡简单性和功能性。界面应该易于使用,同时提供强大的AI功能。权衡包括在功能有限的简单界面和可能让用户不知所措的复杂界面之间做出选择。一个设计良好的界面可以达到平衡,使用户能够有效地利用人工智能功能。
解决方案
- 我们建议开发统一功能的复杂用户界面。例如,允许用户搜索企业数据,与对话代理进行交互以获得指导的界面,并为开发人员提供构建和测试AI解决方案的空间。这个统一的界面提高了用户体验和生产力。
- 解决方案的细节
- 该解决方案涉及集成高级搜索算法和自然语言处理。基于自然语言的搜索使用户能够使用会话查询来查找信息。会话代理协助用户完成任务,并通过对话提供指导。这些特性增强了用户体验,降低了复杂性。
结果影响
- 改进的UI/UX设计可以提高用户对AI解决方案的参与度和满意度。设计良好的界面鼓励更广泛的采用,提高生产力,并在组织内培养对人工智能技术的积极看法。
相关模式
- 会话UI:此模式侧重于通过会话代理创建自然的和类似人类的交互。它包括设计能够理解并响应用户查询的对话系统,模拟对话。[7]
- 个性化:针对单个用户定制UI/UX,包括基于用户偏好、行为和需求定制界面。这创造了更直观、更吸引人的体验,提高了用户满意度[8]
提示工程(Prompt Engineering)
模板:提示模板提供了一种结构化的方法来指导AI模型。Liu等人[3]在2021年的一篇论文中提出了一种基于提示的自然语言处理任务学习框架。作者展示了设计良好的提示模板如何在各种基准测试中显著提高模型性能,强调了有效提示工程的重要性。
问题/挑战
- 挑战在于引导人工智能模型通过提供精确的提示来生成所需的输出。即时工程包括确保模型理解任务并生成预期响应的技术。这对于语言模型是至关重要的,在语言模型中,提示决定上下文和输出。
环境/背景
- 人工智能模型,尤其是大型语言模型,依靠提示来理解和生成文本。提示的质量直接影响模型输出的准确性和相关性。设计良好的提示对于文本生成、问答和语言翻译等任务至关重要。
注意事项/权衡
- 详细的提示为人工智能模型提供了清晰的指导,提高了准确性。然而,过于具体的提示可能会限制灵活性和创造力。找到合适的平衡确保模型能够适应各种情况,同时产生期望的输出。
解决方案
- 提示工程技术提供了一种系统的方法。这包括提示设计,其中提示是用特定的语言和结构制作的。模板创建为一致的提示提供了一个框架。测试包括使用模型评估提示,以确保最佳性能。
解决方案的细节
即时工程包括理解任务和期望的输出。使用提示数据增强等技术来设计和优化提示模板。测试包括使用不同的提示来评估模型性能,以确定最有效的方法。
提示工程最佳实践:扩展
1.清晰和具体
- 例子:不要说“给我讲讲气候变化”,试着说“解释一下气候变化的原因和影响,重点是对全球天气模式和生态系统的影响”。这提供了一个明确的方向。
2.提供背景信息
- 例如:对于写作任务,提供所需语气(正式的,非正式的),目标受众(专家,公众)和长度的详细信息。
3.分步指导
- 例如:对于一个复杂的解决问题的任务,把它分成几个步骤,如“1.找出问题所在,2.分析潜在原因,3.提出解决方案,4.评估最佳解决方案。”
4.Few-Shot学习
- 示例:如果你希望模型总结文章,那么在原始文章旁边提供一些编写良好的摘要示例。
5.思维链(CoT)提示[22]
- 例子:与其说“法国的首都是什么?”问“哪个国家以埃菲尔铁塔闻名?”那个国家最著名的城市是什么?那个城市的首都是什么?”
6.思维树(ToT)提示[23]
- 示例:当产生创造性的想法时,提示模型探索不同的分支,如“想法1:关注可持续性”,“想法2:强调技术”等。
7.思想大纲(OoT)和其他思想提示[26]
- 举例:为一篇文章提供一个结构化的大纲,明确介绍、要点、支持证据和结论。
8.ReAct (Reason-Act)框架[24]
- 示例:对于客户服务聊天机器人,“推理”步骤可能涉及分析客户的查询,而“行动”步骤将涉及生成有用的响应或操作。
9.DSPy提示工程模板[25]
DSPy是编程基础模型的框架。它允许用户通过将程序流程与每个步骤的参数分离来构建复杂的系统。这是通过模块和优化器完成的。模块是程序的构建块,指定输入和输出。优化器是可以调整程序提示和权重的算法。DSPy可用于编译程序,这意味着它可以通过创建有效的提示和更新权重来提高程序的质量。
- 示例:为产品描述创建一个DSPy模板,其中包括产品名称、特性、好处和目标受众的占位符。
10.迭代测试和细化:
- 示例:测试提示后,分析模型的输出,并调整提示的措辞、结构或示例以改进结果。
考虑一下调整:
- 温度:调节模型设置中的“温度”参数来控制输出的随机性。较低的温度会产生更集中的反应,而较高的温度则会激发创造力。
- top -k采样:限制模型在生成的每个步骤中从最可能的前k个单词中选择,平衡创造力和连贯性。
- 模型选择:为任务选择正确的模型。有些模型擅长特定的任务,如代码生成或创造性写作。
- 提示长度:尝试提示长度。虽然详细的提示通常很有帮助,但过长的提示有时会混淆模型。
结果影响
- 及时的工程设计可以从人工智能系统中获得更准确和相关的输出。精心设计的提示可以提高对模型的理解,从而产生符合人类期望和特定应用程序需求的响应。
相关模式
- 模板:提示模板提供了一种结构化的方法,确保了一致性和有效性。模板指导提示的创建,提高效率和性能。[7]
- 模型微调:提示工程与模型微调密切相关,都是为了优化模型性能。提示工程侧重于输入优化,而微调则调整模型参数。[8]
RAG(检索、增强、生成)
是的,这是检索增强生成(RAG)。它可以应用于广泛的技术范围,包括基本RAG,中级RAG,高级RAG。在这篇文章中,我们将只介绍基本的RAG。
RAG的主题是数据充实:RAG利用数据充实和扩充来提高提示质量。Lewis等人[5]在2021年的一篇论文中提出了一种用于问答的检索增强生成方法。作者演示了如何从外部知识来源检索相关段落可以显著提高生成答案的准确性和信息量。
上下文感知是RAG的一个关键目标。RAG通过使用附加数据增加提示来改进模型的上下文感知。Guu等人[6]在2020年的一篇论文中介绍了一种知识增强语言模型,该模型可以从知识库中检索和合并相关信息。作者展示了这种方法如何增强模型生成上下文相关和事实准确的响应的能力。
问题/挑战
- 通过提供额外的上下文来提高提示的质量和相关性。初始提示可能缺乏足够的数据,从而导致次优输出。RAG通过检索和集成相关信息来增加提示来解决这个问题。
环境/背景
- 人工智能模型,尤其是语言模型,依赖于上下文提示。不完整的提示可能导致不准确或不完整的响应。RAG旨在通过检索和合并其他数据来提供更丰富的上下文。
注意事项/权衡
- 使用附加数据增加提示可以改善上下文和输出质量。然而,这引入了处理的复杂性和潜在的延迟。背景的丰富性和生成效率之间存在权衡。
解决方案
- RAG(检索、增强、生成)在生成之前检索并集成相关的附加数据以增强提示。这确保了模型可以访问更广泛的上下文,从而提高输出质量。
- 解决方案的细节:
- RAG结合了信息检索技术和语言生成技术。从知识库、文本语料库或其他来源检索相关数据。然后使用该数据来增强提示,为模型提供增强的上下文。
结果影响
- RAG通过更丰富的上下文和更高的准确性改善了AI输出。增强的提示使模型能够生成更全面和与上下文相关的响应。
相关模式
- 数据充实:RAG是数据充实的一种形式,通过检索和集成附加数据来增强输入。这提高了模型的理解和输出质量。[7]
- 上下文感知:通过使用附加数据增加提示,RAG增强了模型的上下文感知。这使模型能够生成考虑更广泛上下文的响应。[8]
服务
API管理:通过API服务AI模型可以实现与应用程序的无缝集成。Zaharia等人在2019年发表的一篇论文[7]讨论了大规模部署机器学习模型的挑战和最佳实践。作者强调了强大的API管理对于高效可靠地为AI功能提供服务的重要性。
服务网格。服务网格架构促进了微服务的部署和管理,包括人工智能服务。Amershi等人在2020年发表的一篇论文[8]探讨了服务网格在MLOps中的作用,强调了它们在人工智能部署的可观察性、流量管理和安全性方面的好处。
问题/挑战
- 为最终用户或系统提供或部署AI模型的输出是AI开发过程中的关键步骤。
环境/背景
- 一旦人工智能模型被训练,它的输出需要以可用的格式交付,以便为用户或其他系统提供价值。
注意事项/权衡
- 服务人工智能输出的速度和可靠性与所需基础设施的成本和复杂性之间存在权衡。
解决方案
- 实现一个托管AI模型并通过API公开其功能的服务层,允许应用程序访问和集成AI功能。
- 解决方案的细节:
- 选择批处理和在线服务:
- 批处理服务涉及为模型提供大量数据并将输出写入表,通常作为计划作业。
- 在线服务使用端点部署模型,使应用程序能够以低延迟发送请求和接收快速响应。
- 利用Amazon、Microsoft、Google和IBM等公司提供的工具和服务来简化部署过程。
- 考虑使用自动化工作流创建的高级工具来构建机器学习模型服务。
- 由此产生的后果:最终用户能够及时、可靠地接收到人工智能生成的内容或服务,并且其格式易于集成和利用。
相关模式:API管理,服务网格。
适配
模块化:模块化的AI组件增强了适应性和可重用性。Li等人在2021年发表的一篇论文[9]提出了一种模块化深度学习框架,可以为各种任务组合可重用模块。作者演示了模块化如何提高人工智能模型在不同领域的灵活性和可移植性。
系统集成:将人工智能解决方案与现有系统集成对于无缝采用至关重要。Paleyes等人在2020年发表的一篇论文[10]讨论了将机器学习模型集成到生产系统中的挑战和策略。作者强调了标准化接口和健壮的集成管道对于成功部署人工智能的重要性。
问题/挑战
- 人工智能解决方案需要适应不同的用例和环境,以满足不同的用户需求和期望。
环境/背景:
- 随着人工智能的不断发展和普及,人工智能解决方案必须具有通用性和灵活性,以处理各种功能,并与现有系统无缝集成。
注意事项/权衡:
- 在开发能够适应不同用例的灵活人工智能解决方案和针对特定任务的专门优化之间存在权衡。
解决方案
- 通过开发允许与不同系统集成的模块化组件和连接器来扩展和提炼AI解决方案。
- 持续评估人工智能解决方案在各种环境和用例中的性能。
解决方案的细节:
- 采用自适应人工智能解决方案,可以从新数据中学习,并随着时间的推移自我改进,从而消除了在进行更新时进行密集编程和手动编码的需要。
- 利用持续学习模式,使人工智能系统变得更加高效、可扩展和可持续。
- 利用数据科学人员帮助解析来自数据集的见解,并提供后续预测、建议和预测结果。
结果影响
- 强大且适应性强的人工智能解决方案,能够满足广泛的企业环境和用户需求,提高客户满意度和灵活性。
相关模式
- 模块化,系统集成。
准备和调优数据和模型
准备和调优数据和模型是开发有效的人工智能解决方案的关键方面。高效的数据管道在此过程中起着至关重要的作用,因为它们支持必要的数据清理、集成和特征工程任务。Polyzotis等人在2019年发表的一篇论文[11]全面调查了机器学习中的数据管理挑战,强调了精心设计的数据管道在人工智能工作流中的重要性。除了数据准备之外,超参数优化是提高模型性能的另一个重要步骤。
Li等人[12]在2020年的一篇论文中介绍了一种基于贝叶斯优化的高效超参数优化框架,展示了自动调优如何在减少人工工作量的同时显著提高模型精度。此外,对特定任务或领域的预训练模型进行微调已被证明是提高模型性能的有效方法。
Howard和Ruder[4]在2020年的一篇论文中提出了微调语言模型的技术,展示了判别微调和倾斜三角形学习率如何在最大限度地降低计算成本的同时大幅提高下游任务的性能。通过专注于数据和模型准备的这些关键方面,人工智能从业者可以为广泛的应用开发更准确、高效和量身定制的解决方案。
下面是子模式。
数据管道:高效的数据管道对于为人工智能模型准备数据至关重要。Polyzotis等人在2019年发表的一篇论文[11]对机器学习中的数据管理挑战进行了调查。作者讨论了数据清理、集成和特征工程的各种技术,强调了数据管道在人工智能工作流中的关键作用。
超参数优化:调优超参数对于优化模型性能至关重要。Li等[12]在2020年的一篇论文中介绍了一种基于贝叶斯优化的高效超参数优化框架。作者演示了自动超参数调优如何显著提高模型精度并减少人工工作量。
模型微调:微调包括使预先训练好的模型适应特定的任务或领域。Howard和Ruder在2020年的一篇论文[4]介绍了微调语言模型的技术,如判别微调和倾斜三角形学习率。作者展示了微调如何在降低计算成本的同时,大大提高下游任务的模型性能。
合成数据生成:合成数据生成涉及创建模拟真实世界数据的特征和统计属性的人工数据。此过程依赖于捕获真实数据中存在的底层模式、分布和关系的算法和模型。通过生成合成数据,研究人员和开发人员可以增强现有的数据集,填补数据空白,并创建新的训练场景,否则单独使用真实数据是不可能实现的。
合成数据生成在微调LLM中的重要性
数据增强:真实世界的数据集经常存在类别不平衡或某些情景的有限代表性。合成数据生成可用于通过创建新的示例来增强训练数据集,以平衡类别分布并覆盖未充分代表的情况。这导致了更加强健和泛化的LLM,在各种任务和情景中表现良好。
数据隐私和安全:在许多应用中,真实世界的数据可能包含敏感或个人可识别信息(PII)。合成数据生成使研究人员能够创建保留真实数据基本统计特性的数据集,同时确保隐私和安全。通过在合成数据上训练LLM,大大降低了暴露敏感信息的风险。
探索罕见或危险情景:真实世界的数据可能缺乏罕见或危险事件的示例,使得训练LLM以有效处理此类情况成为具有挑战性的任务。合成数据生成使得可以创建在现实生活中难以或不可能收集的场景,如极端天气事件、事故或网络攻击。通过在训练期间让LLM接触这些合成场景,增强了它们理解和应对此类事件的能力。
成本和时间效率:收集和标注大量真实世界的数据可能是一项耗时且昂贵的过程。合成数据生成提供了一种成本效益高且高效的替代方法,通过自动化数据创建过程。这使研究人员和开发人员能够快速迭代和尝试不同的训练场景,从而加快了模型的开发和改进速度。
定制和控制:合成数据生成提供了对数据特征的高度定制和控制。研究人员可以微调数据生成模型的参数,以创建满足特定要求的数据集,例如控制生成示例的多样性、复杂性或难度。这使LLM能够针对特定的应用程序或领域进行有针对性的微调。
伦理考虑
虽然合成数据生成提供了显著的优势,但考虑与其使用相关的伦理影响至关重要。应负责任地、透明地使用合成数据,确保它不会延续真实数据中存在的偏见或错误陈述。此外,有必要验证合成数据的质量和代表性,以确保它与拟模拟的真实世界数据的特征保持一致。
问题/挑战
- 准备和调优数据和模型对于优化性能和与特定用例的相关性至关重要。
环境/背景
- 原始数据通常需要清理和准备,以确保其完整、一致、及时和相关。模型需要针对特定的行业领域和用例进行微调。
注意事项/权衡
- 数据准备和模型调优的质量直接影响人工智能解决方案的性能和准确性。数据准备不足可能导致人工智能模型做出错误的决策和结论。
解决方案
- 通过确保正确的格式、清理和结构,为机器学习调优准备数据。
- 通过微调为特定的行业领域和用例定制AI模型。
解决方案的细节:
- 利用数据准备工具(如OpenAI的CLI数据准备工具)来验证、建议并将数据重新格式化为所需的格式,以便进行微调。
- 确保数据集涵盖各种主题、风格和格式,以使模型能够跨不同场景生成连贯且与上下文相关的输出。
- 提供足够数量的高质量训练示例,理想情况下由人类专家审查,以提高微调模型的性能。
- 增加示例的数量以获得更好的性能,因为更大的数据集通常会导致模型质量的线性增加。
结果影响
- 量身定制的AI解决方案,针对特定的行业领域和用例进行最佳执行,解决组织的独特需求和要求。
相关模式
- 数据管道,超参数优化。
基础
反馈循环:反馈循环可以基于用户交互对AI模型进行持续改进。Breck等人在2021年发表的一篇论文[13]讨论了反馈回路在负责任的人工智能开发中的重要性。作者强调了结合用户反馈如何有助于识别和减轻人工智能系统中的偏见、错误和意外后果。
持续监测:监测生产中的人工智能模型对于维持性能和检测异常至关重要。Klaise等人在2020年发表的一篇论文[14]提出了一个持续监测机器学习模型的框架。作者讨论了实时检测概念漂移、性能下降和数据质量问题的技术。
问题/挑战
- 确保人工智能产出的准确性、相关性和道德合理性对其有效利用至关重要。
环境/背景
- 随着人工智能系统越来越多地部署在关键领域,其输出的相关性和准确性直接影响其有用性和社会影响。
注意事项/权衡
- 在实现高度精确的人工智能输出和确保其知识和能力的广度之间存在权衡。
解决方案
- 实施评估和验证机制,以评估人工智能输出的质量、性能和偏差,并将其置于额外的数据和验证中。
- 解决方案的细节
- 利用自动监控系统检测人工智能模型中的偏差、漂移、性能问题和异常,确保它们正确和合乎道德地运行。
- 建立性能警报,以便在模型偏离其预定义的性能参数时及时进行干预。
- 执行反馈循环来解决用户的挫败感并保持他们的粘性,引导他们走向准确并防止他们陷入困境。
结果影响
- 高质量和公正的人工智能输出是相关的,准确的,值得信赖的,提高用户满意度和依赖。
相关模式
- 反馈循环,持续监控。
多智能体系统(MAS)
多智能体系统(MAS)已成为设计和实现复杂AI系统的强大范式。在MAS中,多个智能体相互作用并协作,解决单个智能体无法解决的问题。Dorri等人在2021年发表的一篇论文【19】对AI中的多智能体系统进行了全面调查,讨论了其应用、挑战和未来方向。作者强调了协调、通信和决策在MAS中的重要性,强调了它们在解决大规模分布式问题方面的潜力。
MAS的一个关键挑战是确保智能体之间的有效合作。Xie等人在2020年发表的一篇论文【20】提出了一个新的合作多智能体强化学习框架,使智能体能够根据其他智能体的动作学习和调整其策略。作者展示了这种方法如何在复杂动态环境中提高性能和稳健性。
MAS的另一个重要方面是处理不确定性和不完整信息。Amato等人在2019年发表的一篇论文【21】讨论了在不确定性下的去中心化决策中的挑战和机遇。作者提出了各种技术,如部分可观察马尔可夫决策过程和博弈论方法,用于建模和解决MAS中的决策问题。
多智能体系统已经在各个领域得到了应用,包括机器人、自动驾驶车辆和智能电网。通过利用多个智能体的协作工作,MAS可以实现更具弹性、适应性和可扩展的AI解决方案。随着AI系统复杂性的不断增加,多智能体系统可能在塑造人工智能的未来中扮演越来越重要的角色。
在Google Cloud,我们最近(2024年4月)宣布了Agent-builder和对基于智能体设计和开发的支持。
背景/背景介绍
多智能体系统(MAS)已成为设计和实现复杂AI系统的强大范式。在MAS中,多个智能体相互作用并协作,解决单个智能体无法解决的问题。
大语言模型(LLMs)在自然语言理解和生成方面展示了显著的能力。然而,随着任务复杂性和专业知识需求的增加,在LLMs中利用多智能体系统可以带来更高效、更有效的解决方案。
问题/挑战
设计有效的多智能体系统需要解决智能体之间的协调、通信和决策等问题。确保合作以及处理不确定性和不完整信息对于MAS的成功至关重要。
将多智能体系统集成到LLMs中面临着协调多个专业语言模型、实现智能体之间的有效沟通和知识共享,以及确保生成输出的一致性等挑战。
考虑因素/权衡
多智能体系统的复杂性与其解决大规模分布式问题的能力之间存在权衡。平衡个体智能体的自主性与协调和协作的需求对于优化性能至关重要。
在LLMs中实现多智能体系统需要在专业知识的优势与智能体之间协调和通信的开销之间取得平衡。找到合适的平衡点对于优化性能和保持生成语言的流畅性和一致性至关重要。
解决方案
开发利用多个智能体协作解决复杂问题的多智能体系统。实施有效的智能体间协调、通信和决策技术。
在本文中,我们将仅介绍基础知识,并将在后续博客中提供关于多智能体系统模式语言的详细信息。敬请期待。
为LLMs开发一种多智能体架构,使多个专业语言模型能够协作和共享知识。实施有效的通信、协调和决策技术,实现无缝集成和最佳性能。
解决方案详情
- 利用Xie等人提出的合作多智能体强化学习框架【20】,使智能体能够根据其他智能体的动作学习和调整其策略。
- 应用如Amato等人所讨论的部分可观察马尔可夫决策过程和博弈论方法【21】,在不确定性和不完整信息下对MAS中的决策问题进行建模和解决。
- 在机器人、自动驾驶车辆和智能电网等各种领域利用MAS的潜力,开发更具弹性、适应性和可扩展的AI解决方案。
基于大语言模型的智能体
- 利用分层多智能体框架,高层智能体协调低层专业智能体的动作,确保生成输出的一致性和连贯性。
- 实施通信协议,使智能体能够共享相关信息,如上下文、意图和生成的输出,从而实现有效的协作和知识共享。
- 采用联邦学习和迁移学习等技术,使智能体能够相互学习并适应新任务和新领域。
结果和影响
多智能体系统能够开发出比单个智能体更有效解决复杂分布式问题的AI解决方案。通过促进智能体之间的协调、通信和决策,MAS可以在动态环境中提高性能、稳健性和适应性。
在大语言模型中使用多智能体系统可以生成更连贯、上下文相关和专业化的语言输出。通过利用多个专业智能体的专长,大语言模型可以更有效地处理复杂任务,从而提高性能和用户体验。
相关模式
- 去中心化控制:MAS通常采用去中心化控制架构,允许智能体自主决策,同时与其他智能体协调以实现共同目标。
- 群体智能:MAS可以表现出群体智能,通过智能体间简单的交互,在系统层面产生复杂、智能的行为。
- 模块化架构:大语言模型中的多智能体系统可以采用模块化架构,每个智能体是具有特定功能的独立模块,便于扩展和适应新任务。
- 协作学习:多智能体大语言模型中的智能体可以进行协作学习,彼此分享知识,从而提升个体和整体的性能。
在大语言模型中集成多智能体系统,为生成高质量、专业化的语言输出开辟了新可能。通过实现多个专业智能体之间的有效协调、通信和知识共享,大语言模型能够更高效、更有效地处理复杂任务,为更先进和智能的语言应用铺平道路。
治理
治理AI:管理人工智能系统涉及确保遵守道德原则和法规。Floridi等人在2021年的一篇论文【15】中提出了一个道德AI治理框架。作者讨论了人工智能开发和部署中透明度、问责制和公平性的重要性,强调治理在促进负责任AI实践中的作用。
合规管理:合规管理确保AI系统遵守法律和法规要求。Bughin等人在2020年的一篇论文【16】探讨了AI的监管环境,并讨论了管理合规风险的策略。作者强调了主动合规管理的重要性,以应对不断变化的法律和伦理框架。
问题/挑战
- 随着AI系统变得更强大和普遍,负责任和伦理地管理它们变得至关重要,以防止潜在的危害。
背景/背景介绍
- AI系统可能对社会产生重大影响,影响个人的权利、隐私和尊严。治理确保AI系统在道德和法律的界限内运行。
考虑因素/权衡
- 强大的AI治理可能会增加开发和部署过程的复杂性,但对于维护用户信任和遵守法规至关重要。
解决方案
- 实施一个负责任的AI治理层,包括公正的安全检查、审查检查和监督机制。
- 解决方案详情
- 建立涉及技术、法律、道德和商业等利益相关者的多学科治理政策和框架,以指导AI开发和应对风险。
- 确保AI系统尊重和维护隐私权、数据保护和安全,保障个人信息的安全。
- 实施机制以持续监控和评估AI系统,确保遵守道德规范和法律法规。
- 利用具有实时更新和直观健康评分指标的可视化仪表盘,便于监控AI系统的状态和性能。
结果和影响
- 人工智能系统在道德和法律范围内运行,尊重个人的权利和隐私,维护用户信任,从而促进社会接受和采用。
相关模式
- 道德AI,合规管理。
机器学习运维(MLOps)
持续部署:MLOps使AI模型得以持续部署,从而实现快速更新和改进。Alla和Adari在2020年的一篇论文【17】中讨论了MLOps的原则和实践,强调了持续集成和部署(CI/CD)流水线对于高效模型更新和发布的重要性。
实时监控:实时监控对于确保生产环境中AI模型的性能和可靠性至关重要。Sambasivan等人在2021年的一篇论文【18】中介绍了一项关于监控机器学习系统的挑战和最佳实践的研究。作者讨论了实时监控在检测和缓解问题方面的重要性,确保AI模型的顺利运行。
问题/挑战
- 将机器学习模型运营化涉及将其从开发阶段过渡到生产阶段,需要仔细规划和执行。
背景/背景介绍
- MLOps(机器学习运维)旨在简化将机器学习模型投入生产并高效维护的过程。
考虑因素/权衡
- 在生产环境中AI模型的性能与其部署和更新的速度之间存在权衡。
解决方案
- 编排持续集成和部署(CI/CD)管道,用于集成和监控数据、预测和生成AI组件。
- 解决方案详情
- 采用MLOps方法,增加数据科学家、工程师和IT专业人员之间的协作,加速模型开发和生产。
- 利用自动化测试和验证实践,提高机器学习工件的质量,并在ML项目中实施敏捷原则。
- 将MLOps应用于整个ML生命周期,从模型生成和编排到健康、诊断、治理和业务指标。
结果和影响
- 在生产环境中AI模型的平稳运行,停机时间最小,确保可靠和高效的性能。
相关模式
- 持续部署,实时监控。
相关资料:
[1] Ram, A., et al. (2020). Conversational AI: Advances and Challenges. arXiv preprint arXiv:2005.01411.
[2] Kocaballi, A. B., et al. (2019). The Role of Personalization in AI-based Health Interventions. arXiv preprint arXiv:1908.01739.
[3] Liu, X., et al. (2021). A Prompt-based Learning Framework for Natural Language Processing. arXiv preprint arXiv:2102.12206.
[4] Howard, J., & Ruder, S. (2020). Fine-tuned Language Models for Text Classification. arXiv preprint arXiv:2012.08904.
[5] Lewis, P., et al. (2021). Retrieval-Augmented Generation for Question Answering. arXiv preprint arXiv:2101.05779.
[6] Guu, K., et al. (2020). REALM: Retrieval-Augmented Language Model Pre-training. arXiv preprint arXiv:2002.08909.
[7] Zaharia, M., et al. (2019). Challenges and Best Practices in Deploying Machine Learning Models at Scale. arXiv preprint arXiv:1909.06353.
[8] Amershi, S., et al. (2020). MLOps: Practices for Efficient and Robust Machine Learning in Production. arXiv preprint arXiv:2006.12241.
[9] Li, J., et al. (2021). Modular Deep Learning: A Survey. arXiv preprint arXiv:2103.01475.
[10] Paleyes, A., et al. (2020). Challenges in Deploying Machine Learning: A Survey of Case Studies. arXiv preprint arXiv:2012.01743.
[11] Polyzotis, N., et al. (2019). Data Management Challenges in Production Machine Learning. arXiv preprint arXiv:1905.08674.
[12] Li, L., et al. (2020). Efficient Hyperparameter Optimization with Bayesian Optimization. arXiv preprint arXiv:2010.01708.
[13] Breck, E., et al. (2021). The Importance of Feedback Loops in Responsible AI Development. arXiv preprint arXiv:2102.03483.
[14] Klaise, J., et al. (2020). A Framework for Continuous Monitoring of Machine Learning Models. arXiv preprint arXiv:2012.04271.
[15] Floridi, L., et al. (2021). A Framework for Ethical AI Governance. arXiv preprint arXiv:2101.11519.
[16] Bughin, J., et al. (2020). Managing Compliance Risks in AI Deployment. arXiv preprint arXiv:2006.11024.
[17] Alla, S., & Adari, S. K. (2020). MLOps: Principles and Practices. arXiv preprint arXiv:2011.14183.
[18] Sambasivan, N., et al. (2021). Challenges and Best Practices in Monitoring Machine Learning Systems. arXiv preprint arXiv:2102.02558.
[19] Dorri, A., et al. (2021). Multi-Agent Systems in AI: A Survey. arXiv preprint arXiv:2105.01183.
[20] Xie, T., et al. (2020). Learning to Cooperate in Multi-Agent Reinforcement Learning. arXiv preprint arXiv:2011.14821.
[21] Amato, C., et al. (2019). Decentralized Decision Making Under Uncertainty in Multi-Agent Systems. arXiv preprint arXiv:1909.08693.
[22] Wei, J., Wang, X., Schuurmans, D., Bosma, M., Chi, E., Le, Q., & Zhou, D. (2022). Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. arXiv preprint arXiv:2201.11903.
[23] Long, Y., Wu, H., Wang, W., Zhou, Y., Dong, L., Li, H., … & Ma, J. (2023). Tree of Thoughts: Deliberate Problem Solving with Large Language Models. arXiv preprint arXiv:2305.10601.
[24] Yao, S., Zhao, T., Zhang, D., Ding, N., & Liu, T. (2022). ReAct: Synergizing Reasoning and Acting in Language Models. arXiv preprint arXiv:2210.03629.
[25] Stanford NLP Group. (n.d.). DSPy. GitHub repository. https://github.com/stanfordnlp/dspy
[26] Chu, Z., Chen, J., Chen, Q., Yu, W., He, T., Wang, H., … & Liu, T. (2023). A Survey of Chain of Thought Reasoning: Advances, Frontiers and Future. arXiv preprint arXiv:2309.15402v2 [cs.CL].
感谢阅读!你还可以订阅我们的YouTube频道,观看大量大数据行业相关公开课:https://www.youtube.com/channel/UCa8NLpvi70mHVsW4J_x9OeQ;在LinkedIn上关注我们,扩展你的人际网络!https://www.linkedin.com/company/dataapplab/。
原文作者:Ali Arsanjani
翻译作者:Dou & 文杰
美工编辑:过儿
校对审稿:Jason
原文链接:https://dr-arsanjani.medium.com/the-genai-reference-architecture-605929ab6b5a#cf5c