MicrosoftAutoGen可让您构建用于解决问题的AI代理框架

2023-09-28 09:26:49深情的哈密瓜

微软悄然推出了一个新框架,该框架允许使用多个代理来开发大型语言模型(LLM)应用程序,这些代理可以相互对话来解决任务。AutoGen代理是可定制的、可对话的,并且无缝地允许人类参与。他们可以采用法学硕士、人力投入和工具组合的各种模式运作。本快速指南概述了新的MicrosoftMicrosoftAutoGenAIAgent系统的功能以及安装方法

MicrosoftAutoGen可让您构建用于解决问题的AI代理框架

Microsoft与宾夕法尼亚州立大学和华盛顿大学合作开发并发布了AutoGen,这是一种通过启用多代理对话来增强大型语言模型(LLM)功能的工具。这一创新框架现已在Github上发布,为人工智能(AI)领域的开发人员和研究人员开辟了一个充满可能性的新世界。

MicrosoftAutoGenAIAgent通过Github提供

AutoGen是一款突破性工具,可简化下一代LLM应用程序的开发。它通过以最小的努力实现多代理对话来实现这一点,从而简化复杂的LLM工作流程的编排、自动化和优化。这不仅最大限度地提高了LLM模型的性能,而且有助于克服其固有的弱点。

AutoGen的主要功能之一是支持多种对话模式。开发人员可以自定义代理并与代理对话,以构建广泛的对话模式。这种灵活性扩展到对话自主性、代理数量和代理对话拓扑。这种多功能性使AutoGen有别于其他人工智能工具,提供了其他框架中不常见的定制和交互级别。

AutoGen还提供了一系列具有不同复杂程度的工作系统。这些系统涵盖各个领域的广泛应用,展示了该工具的适应性和广泛的潜力。此功能证明了AutoGen对从客户服务到医疗保健、教育等各个领域的潜在影响。

助理代理

AssistantAgent旨在充当AI助手,默认使用LLM,但不需要人工输入或代码执行。它可以编写Python代码(在Python编码块中)供用户在收到消息(通常是需要解决的任务的描述)时执行。

在底层,Python代码是由LLM(例如GPT-4)编写的。它还可以接收执行结果并建议修复错误的代码。可以通过传递新的系统消息来更改其行为。LLM推理配置可以通过llm_config进行配置。

用户代理

UserProxyAgent从概念上讲是人类的代理,默认情况下在每次交互时请求人类输入作为代理的回复,并且还具有执行代码和调用函数的能力。当UserProxyAgent在接收到的消息中检测到可执行代码块并且未提供人工用户输入时,它会自动触发代码执行。

可以通过将code_execution_config设置为False来禁用代码执行。默认情况下禁用基于LLM的响应。可以通过将llm_config设置为与推理配置对应的字典来启用它。当llm_config设置为字典时,UserProxyAgent可以在不执行代码时使用LLM生成回复。当llm_config设置为字典时,UserProxyAgent可以在不执行代码时使用LLM生成回复。

在技​​术能力方面,AutoGen提供了openai.Completion或openai.ChatCompletion的直接替代品,作为增强的推理API。这样可以轻松进行性能调整、API统一和缓存等实用程序以及错误处理、多配置推理、上下文编程等高级使用模式。这些功能有助于最大限度地利用昂贵的法学硕士(例如ChatGPT和GPT-4)。

通过在多个有能力的代理之间自动进行聊天,AutoGen可以自主地或通过人工反馈来集体执行任务。这包括需要通过代码使用工具的任务,进一步扩展了该工具的潜在应用。

微软发布AutoGen是人工智能技术快速发展的一个重要里程碑。通过在Github上提供此工具,微软不仅实现了高级人工智能工具的民主化,而且还培育了一个协作环境,让开发人员和研究人员可以为这项技术的发展做出贡献。

AutoGen代表了人工智能领域的重大飞跃。它支持多代理对话的能力,加上可定制和可对话的代理,使其与其他人工智能工具区分开来。随着这项技术的不断发展,开发人员和研究人员使用AutoGen提出的创新应用程序将会很有趣。

推荐阅读

阅读排行