首页>>科技 >>内容

chatgpt联网插件,ChatGPT开始联网,最后的封印解除了

发布时间:2023-11-08 21:58:22编辑:温柔的背包来源:

很多朋友对chatgpt联网插件,ChatGPT开始联网,最后的封印解除了不是很了解,每日小编刚好整理了这方面的知识,今天就来带大家一探究竟。

chatgpt联网插件,ChatGPT开始联网,最后的封印解除了

现在没有什么能阻止ChatGPT。ChatGPT是一个拥有“超高智商”的人工智能,尤其是在升级版GPT-4内核之后。但是我们知道它的训练数据是截止到2021年的,AI不经过训练是不可能准确回答的。自去年11月推出以来,ChatGPT已经被无数人使用,人们一直在以各种形式要求这种大语言模型访问更多的数据。3月24日,OpenAI终于宣布部分解除ChatGPT无法连接互联网的限制。

OpenAI的解决方案是以第三方插件为桥梁,让AI在更安全的环境下“看到”外部数据。昨天,该机构公开了第一批ChatGPT插件的名单。这些插件是由Expedia、FiscalNote、Instacart、KAYAK、Klarna、Milo、OpenTable、Shopify、Slack、Speak、Wolfram和Zapier创建的。具体来说,该插件现在允许您使用ChatGPT执行以下操作:检索实时信息,如体育比分、股票价格、最新新闻等。

检索知识库信息:如公司文档、个人笔记等。代表用户执行操作:例如,预订机票、点餐等。此外,OpenAI还提供了两个插件,包括一个web浏览器和一个代码解释器,并开放了一个知识库来检索插件的代码。现在,任何开发者都可以构建插件来增强ChatGPT的信息库。

目前,插件alpha版的访问权限已经扩展到更多等待名单上的用户和开发者。虽然OpenAI表示优先考虑少数开发者和ChatGPT Plus用户,但也计划在未来更大范围内开放。为了给你一个直观的感受,这里举一个例子:用户可以选择安装ChatGPT的Wolfram插件,提高自己的计算智能。

Wolfram Alpha中的数据来自各大学术网站、出版物和科研机构,专业性绝对有保障。这个ChatGPT有没有让你觉得自己变强了?摘要

今天的大语言模型已经能够完成各种任务,但是功能还是有限的。训练数据是他们唯一可以学习的信息。这些内容可能已经过时,但应该适应所有人的需求。此外,语言模型唯一现成的功能是输出文本。这段文字可能包含有用的说明,但要真正遵循这些说明,人们需要做更多的处理。

虽然这不是一个完美的类比,但插件可以是语言模型的“眼睛和耳朵”,以便语言模型可以访问训练数据中不包括的新的、私有的或特定的信息。为了响应用户的显式请求,插件还可以让语言模型代为执行安全且受限的操作,从而提高整个系统的实用性。OpenAI预测将会出现一个AI交互统一应用的开放标准,他们正在对这样一个标准进行早期的尝试。

今天,OpenAI开始逐步开放OpenAI早期合作伙伴为ChatGPT用户构建的插件,首先覆盖ChatGPT Plus订户,同时也开始引入开发者为ChatGPT创建自己插件的能力。未来几个月,随着安全系统的完善,OpenAI计划让使用OpenAI模型的开发者能够将插件集成到自己的应用中,而不仅仅是ChatGPT。安全和更广泛的影响

当然,将语言模型连接到外部工具会带来新的机会和新的重大风险。插件提供了解决与大规模语言模型相关的各种挑战的潜力,包括大规模的“幻觉”,跟踪最近的事件,以及访问(许可的)专有信息源。通过集成对外部数据的显式访问,如在线最新信息、基于代码的计算或定制的插件检索信息,语言模型可以通过基于证据的参考内容增强其响应。

这些参考资料不仅提高了模型的实用性,而且使用户能够评估模型输出的可信度并仔细检查其准确性,从而可能减少最近GPT-4系统卡中讨论的与过度依赖有关的风险。最后,插件的价值可能会超越现有的限制,帮助用户处理各种新的用例,从浏览产品目录到预订航班或订购食品。

但与此同时,插件可能会采取有害或无意的行动,增加犯罪分子欺骗、误导或虐待他人的能力,从而增加安全挑战。通过增加可能的应用范围,插件可能会增加新领域中的模型所采取的错误或错位操作所导致的负面后果的风险。这些因素指导了ChatGPT插件平台的开发,OpenAI为此推出了多项保障措施。

此前,OpenAI已经在内部以及与外部合作伙伴进行了“红队演习”,演练了很多可能的相关场景。例如,红队发现,如果插件在没有安全措施的情况下发布,它会执行复杂的提示注入,发送欺诈和垃圾邮件,绕过安全限制或滥用发送到插件的信息。

OpenAI正在使用这些发现来促进安全设计缓解措施,以限制危险的插件行为,提高它们如何以及何时作为用户体验的一部分运行的透明度,并确认逐步部署插件访问的决定。

外挂可能会产生广泛的社会影响。例如,在最近发表的一篇论文中,OpenAI的研究人员发现,可以使用工具的语言模型可能比没有工具的语言模型具有更大的经济影响。更一般地说,根据其他研究人员的发现,当前的人工智能技术浪潮将对工作转换、替代和创造的速度产生巨大影响。让ChatGPT浏览网页

在WebGPT、GopherCite、BlenderBot2、LaMDA2等一系列作品的鼓励下,允许语言模型从互联网上读取信息,将严格扩大可以讨论的内容范围,超越训练语料库,纳入当前的新鲜信息。

下图就是一个例子。如你所见,浏览为ChatGPT用户打开了一个体验。以前的模型可能会礼貌地指出,它的训练数据没有包括足够的信息供它回答。在这种情况下,ChatGPT检索了奥斯卡奖的最新信息(2023年3月13日颁奖),然后进行了一场熟悉的ChatGPT诗歌表演。浏览已经成为增加体验的一种方式。问:你能告诉我哪一个人/哪部电影赢得了这些奖项吗?最佳男演员

最佳配乐,最佳影片,最佳男配角然后想出一首诗把他们联系起来。ChatGPT会给你一系列的搜索结果,你可以直接点击查看相关的信息来源。除了为最终用户提供实用价值之外,语言和聊天模型可以被彻底和可解释地研究,展示了可扩展对齐工作的前景。

值得注意的是,插件基于文本的Web浏览器仅限于发出GET请求,这可以减少但不能消除某些类型的安全风险。浏览插件的作用范围仅限于用于检索信息,但不包括“事务性”操作,如表单提交——,这种操作具有较大的安全风险。

浏览功能使用微软bing搜索API从网络上检索内容。因此,该功能在来源可靠性和信息真实性方面继承了微软的大量工作,以及防止检索有问题内容的“安全模式”。插件运行在一个独立的服务中,ChatGPT的浏览活动与基础设施的其余部分分离。

为了尊重内容创作者,遵守网络规范,ChatGPT浏览器插件的用户代理令牌为ChatGPT-User,配置为尊重网站的robots.txt文件。偶尔可能会导致“点击失败”,说明插件在按照网站的指示,避免抓取。此用户代理将仅用于代表ChatGPT用户采取直接操作,而不会用于以任何自动方式对网络进行爬网。OpenAI还发布了IP导出范围,并实施了限速措施,避免向网站发送过多流量。

代码解释器可以使用Python来处理上传和下载的实验性ChatGPT模型。

OpenAI为ChatGPT背后的模型提供了一个Python解释器,它在沙箱和防火墙执行环境中工作,还有一些临时磁盘空间。解释器插件运行的代码在一个持久会话中进行求值,该会话在聊天会话期间始终处于活动状态(有上限超时),后续调用可以互相构建。目前该功能支持上传文件到当前对话工作区,下载工作结果。点击图中完成计算:

从最初的用户研究中,OpenAI已经确定了一些使用代码解释器的有价值的用例:解决定量和定性的数学问题,分析数据和可视化格式之间的文件安全机制。

将ChatGPT模型连接到编程语言解释器的第一个预防措施是适当地沙箱化执行,以便AI生成的代码不会在现实世界中产生意想不到的副作用。OpenAI将在一个安全的环境中执行代码,并使用严格的网络控制来防止外部互联网访问来执行代码。此外,OpenAI为每个会话设置了资源限制。

禁用互联网访问将限制代码沙箱的功能,但它可能是人工智能辅助编程最安全的初始形式。第三方插件在设计上把安全性放在第一位,然后把ChatGPT和外界连接起来。数据采集开源检索插件使ChatGPT能够在获得许可的情况下访问个人或组织的信息源。它允许用户通过提问或用自然语言表达他们的需求,从他们的数据源(如文件、笔记、电子邮件或公共文档)中获取最相关的文档片段。

作为一个开源自托管的解决方案,开发者可以部署自己的插件版本,并在ChatGPT上注册。它的插件由OpenAI嵌入,允许开发者选择向量数据库(如Milvus、Pinecone、Qdrant、Redis、Weaviate或Zilliz)来索引和搜索文档。信息源可以使用webhooks与数据库同步。

检索插件允许ChatGPT搜索内容向量数据库,并将最佳结果添加到ChatGPT会话中。这意味着不会受到任何外界影响,主要风险是数据授权和隐私。开发人员应该只向他们有权访问的检索插件添加内容,并且他们可以在用户的ChatGPT会话中共享内容。第三方插件在ChatGPT上使用第三方插件是这样的:

OpenAI为第三方插件准备了描述清单文件,包括插件函数、调用方法、面向用户文档的机器可读描述。

{ 'schema_version' 'v1 '' name_for_human' 'TODO Manager '' name_for_model' 'todo_manager ''对人类的描述''管理您的托多!'模型描述''一个用于管理用户的托多斯的应用,' api' { 'url' '/openapi.json' },' auth' { 'type' 'none' },' logo _ URL '' https://示例。com/logo。png '' legal _ info _ URL '' http://示例。' com ''联系人_电子邮件'' hello @示例。com ' }构建一个插件的步骤:

1、构建您希望语言模型调用的API端点(它可以是新的API、现有的API或专门为LLM设计的现有API的包装)。2、创建一个记录您的API的OpenAPI规范和一个链接到OpenAPI规范并包含一些特定于插件的元数据的清单文件。

在chat.openai.com上开始对话时,用户可以选择他们想要启用的第三方插件。关于已启用插件的文档作为对话上下文的一部分显示给语言模型,这样模型就可以根据需要调用合适的插件API来实现用户的意图。目前设计的插件都是调用后端API的,OpenAI也在探索同样可以调用客户端API的插件。OpenAI表示,他们正在努力开发插件,并向更广泛的受众推广。

这意味着ChatGPT带来的风暴正在席卷一切。审核编辑:李倩

以上知识分享希望能够帮助到大家!