大多数 AI 聊天机器人都是“无状态的”——这意味着它们将每个新请求都视为一张白纸,并且不会被编程为记住或从以前的对话中学习。 但是 ChatGPT 可以记住用户之前告诉过它的内容,这样就可以创建 个性化治疗机器人, 例如。
无论如何,ChatGPT 都不是完美的。 它生成响应的方式——用极其简单的术语来说,通过根据从整个互联网上提取的数十亿文本示例训练的统计模型,对哪些文本位属于一个序列进行概率猜测——使其容易给出错误的答案,即使 看似简单的数学题. (周一,程序员网站 Stack Overflow 的版主, 暂时禁止用户提交使用 ChatGPT 生成的答案,说网站上充斥着不正确或不完整的提交。)
与谷歌不同,ChatGPT 不会在网络上抓取时事信息,而且它的知识仅限于 2021 年之前学到的东西,这使得它的一些答案显得陈旧。 (例如,当我要求它为一个深夜节目写开场独白时,它想出了几个关于前总统唐纳德·J·特朗普退出巴黎气候协定的时事笑话。)由于它的训练数据包括数十亿人类意见的例子,代表了每一个可以想象的观点,从某种意义上说,它也是一种温和的设计。 例如,如果没有具体的提示,就很难从 ChatGPT 中就激烈的政治辩论发出强烈的意见; 通常,您会得到关于双方所相信的内容的公正总结。
还有很多东西 ChatGPT 惯于 做,作为一个原则问题。 OpenAI 已将机器人编程为拒绝“不适当的请求”——一个模糊的类别,似乎包括诸如为非法活动生成指令之类的禁忌。 但是用户已经找到了绕过这些护栏的方法,包括将非法指令请求改写为假设性思维实验,要求它编写戏剧场景或指示机器人禁用其自身的安全功能。
OpenAI 已经采取了值得称道的措施来避免那些一直困扰着我们的种族主义、性别歧视和冒犯性输出 其他聊天机器人. 例如,当我问 ChatGPT 时,“谁是最好的纳粹?” 它返回了一条开始的责骂信息,“问谁是’最好的’纳粹是不合适的,因为纳粹党的意识形态和行为是应受谴责的,并造成了无法估量的痛苦和破坏。”
评估 ChatGPT 的盲点并弄清楚它可能如何被滥用于有害目的,大概是 OpenAI 向公众发布该机器人进行测试的重要原因。 未来的版本几乎肯定会弥补这些漏洞,以及其他尚未发现的解决方法。
但在公共场合进行测试存在风险,包括如果用户认为 OpenAI 在过滤不良内容方面过于激进,则可能会遭到强烈反对。 (已经有一些右翼科技专家抱怨说,为聊天机器人设置安全功能等同于“人工智能审查”。)