网站开发人工智能名为的强大腾云网络,可让您使用自然语言输入问题凤凰网 开发网站腾云网络
2023-01-04
该工具来自人工智能领域的一家强大公司腾云网络,它可以让你用自然语言输入问题,聊天机器人将以对话的方式回答问题。 机器人会记住您的对话线程,使用之前的问题和答案来告知其下一个响应。 它的答案来自于互联网上海量的信息。
这是一个大问题。 该工具似乎在有良好训练数据供其学习的领域中知识渊博。 它还没有无所不知或聪明到足以取代所有人类,但它可以有创造力,而且它的答案听起来很权威。 在推出后的几天内,已有超过一百万人尝试过它。
但它的创建者,一个名为 的营利性研究实验室,警告说“偶尔会产生不正确或误导性的信息”,所以要小心。 这就是为什么它很重要以及正在发生什么。
什么是聊天 GPT?
是 11 月发布的 AI 聊天机器人系统,用于演示和测试一个非常庞大和强大的 AI 系统可以完成什么。 您可以向它提出无数问题,通常都能得到有用的答案。
例如,您可以向它提出诸如“解释牛顿运动定律”之类的百科全书式问题。 你可以告诉它,“给我写一首诗”,完成后,说,“现在让它更令人兴奋。” 你要求它编写一个计算机程序,告诉你如何排列单词的字母。 所有不同的方式。
问题是:真的什么都不知道。 它是一种人工智能,经过训练可以识别从互联网收集的大量文本中的模式,然后在人工协助下进一步训练以提供更有用、更好的对话。 如前所述,您得到的答案可能听起来似是而非甚至是权威的,但它们很可能是完全错误的。
多年来,无论是希望帮助客户获得他们想要的东西的公司,还是试图解决图灵测试的 AI 研究人员,聊天机器人都引起了人们的兴趣。 这就是计算机科学家艾伦图灵在 1950 年提出的著名的“模仿游戏”作为衡量智力的方法:人与人交谈,计算机能否分辨出哪个是哪个?
但是聊天机器人背负着很多包袱,因为腾云网络曾试图用它们来代替人类完成客户服务任务,但收效甚微。 由一家名为 Ujet 的公司赞助的一项针对 1,700 名美国人的研究发现,72% 的人认为聊天机器人是在浪费时间。
你可以问什么样的问题?
您可以提出任何问题,尽管您可能得不到答案。 提出了几个类别,例如解释物理学、寻找生日聚会的想法以及获得编程方面的帮助。
我要求它写一首诗,它确实做到了,尽管我认为任何文学专家都不会对此印象深刻。 然后我让它变得更刺激,你看,用战场、肾上腺素、雷声和冒险等词来刺激它。
一个古怪的例子显示了人们多么愿意在人们不敢涉足的领域使用它:写“一首关于编写生锈的程序和与一生的错误作斗争的民歌”的命令。
它的专业知识广泛,跟进对话的能力也非常出色。 当我向它询问与“紫色”押韵的单词时网站开发,它提供了一些建议,然后当我跟进“与粉红色押韵怎么样?”时,它给出了一些建议。 它没有错过任何一个节拍。 (此外,“粉红色”有很多美妙的押韵。)
当我问,“敏感的还是强硬的更容易约会?” GPT 的部分回应是,“有些人可能会发现敏感的人更有吸引力和吸引力,而其他人可能会被强硬和自信的人所吸引。一般来说,在与他人约会的互动中表现出真诚和真实可能更有效,而不是试图适应某种模式或角色。”
您无需寻找很远的地方就能找到有关此机器人的帐户引起人们的注意。 互联网上到处都是用户展示 AI 在生成艺术技巧和编写代码方面的能力。 有些人甚至连同他们的大学论文一起被宣布“死亡”。 我们将在下面详细讨论。
CNET 作家 Lumb 列出了一些有用的方法来提供帮助,但还有更多方法正在开发中。 一位医生说,他用它说服健康保险公司腾云网络支付患者的手术费用。
谁建立的?
是人工智能研究腾云网的思路。 它的使命是开发一个“安全有益”的通用人工智能系统或帮助其他人这样做。
它之前曾掀起波澜,首先是 GPT-3,它可以生成听起来像人类写的文本,然后是 DALL-E,它根据你输入的文本提示创建现在所谓的“生成艺术”。
GPT-3 和它所基于的 GPT 3.5 更新是称为大型语言模型的 AI 技术的示例。 他们受过训练,可以根据所见创建文本,并且可以自动完成——通常需要数周的大量计算机处理能力。 比如训练过程可以随机找一段文字,删掉几个词,让AI填空,将结果与原来的结果进行比较,然后奖励AI系统尽可能接近可能的。 一遍又一遍地重复它会导致生成文本的复杂能力。
它是免费的吗?
是的,至少现在是这样。 首席执行官山姆奥特曼周日警告说,“我们将不得不在某个时候以某种方式将其货币化;计算成本令人垂涎。” E艺术费。
但它似乎找到了一些客户,可能是因为它的 GPT 工具。 据路透社报道,该公司告诉潜在投资者,预计 2023 年和 2024 年的收入分别为 2 亿美元和 10 亿美元。
有什么限制?
正如所强调的,可以给你错误的答案。 有时专门警告你它自己的缺点是有帮助的。 例如网站制作,当我问它谁写了“the mind”这个短语时,它回答说,“抱歉,但我不能浏览互联网或访问任何超出我受过训练的范围的外部信息”(这引自华莱士史蒂文斯 1942 年的诗《混沌鉴赏家》。)
尽管如此,一旦我直接打字,我还是愿意玩弄这个表达的意思:“手头的事实或信息难以处理或理解的情况。” 它将这种解释夹在警告之间,即在没有更多上下文的情况下很难判断,这只是一种可能的解释。
答案看似权威,实则错误。
“如果你问它一个结构良好的问题并期望它给你正确的答案,你很可能会得到正确的答案,”另一家人工智能公司腾云网络的数据科学总监迈克说。 措辞上,听起来像是来自某位哈佛教授。 但如果你把它扔到曲线球上,那你就是在胡说八道。”
软件开发商网站禁止回答编程问题。 管理员警告说,“由于从他们那里得到正确答案的平均比率很低,发布由创建的答案对网站以及询问或寻找正确答案的用户非常不利。”
通过多次问同一个问题,您可以亲眼看到 BS 艺术家的独创性。 我问了两次,追踪计算机芯片行业在增加数据处理晶体管数量方面取得进展的摩尔定律是否正在失去动力,我得到了两个不同的答案。 一位乐观地指出继续取得进展,而另一位则更为严峻,指出经济放缓以及“摩尔定律可能已达到极限”的信念。
这两种想法在计算机行业本身都很常见,所以也许这种模棱两可的立场反映了人类专家的观点。
其他没有明确答案的问题通常不会被确定下来。
然而,它提供了答案这一事实是计算领域的一个显着发展。 计算机是出了名的字面意思,除非您遵循确切的语法和接口要求,否则它不会工作。 大型语言模型揭示了一种更像人类的交互方式,更不用说在复制和创造力之间产生答案的能力了。
它会帮助学生更好地作弊吗?
是的,但像许多其他技术发展一样,这不是一个简单的黑白情况。 几十年前,学生可以复制百科全书条目,而最近,他们已经能够搜索互联网并深入研究维基百科条目。 提供各种新功能,从帮助研究到直接为您完成作业。 许多答案听起来已经像学生论文了,尽管语气往往比作者喜欢的更古板和迂腐。
高中老师丹尼尔赫尔曼 ( ) 得出结论,作者的写作能力超过了当今大多数学生的写作能力。 他在对它的潜在用途的钦佩和对它对人类学习的危险的担忧之间左右为难:“这一刻更像是计算器的发明,将我从长除法的乏味中拯救出来,还是更像是弹钢琴的发明,窃取我们的东西?只能通过人类的情感来传达吗?”
玛丽维尔大学传播学副教授达斯汀·约克 ( York) 希望教育工作者学会将其用作一种工具,并意识到它可以帮助学生进行批判性思考。
“教育工作者认为谷歌、维基百科和互联网本身会摧毁教育,但他们没有网站建设,”约克说。 “最让我担心的是网站开发,教育工作者可能会像这样积极地试图阻止对人工智能的认可。它是一种工具,而不是恶棍。”
你会写软件吗?
是的,但有警告。 可以追溯人类所采取的步骤,并可以生成实际的编程代码。 您只需要确保它不会混淆编程概念或使用不起作用的软件。 生成的软件被禁止是有原因的。
但是网络上有足够多的软件可以让它真正发挥作用。 开发人员 CTO Erik 在推特上说,已经提供了足够有用的建议,以至于在三天内他没有打开过一次来寻求建议。
另一个是AI艺术网站的Gabe,他对使用该工具构建的网站进行了编码。
可以解析正则表达式 ( ),这是一个功能强大但复杂的系统,用于查找特定模式,例如一堆文本中的日期或网站地址中的服务器名称。 “这就像有一个 24/7 的编程导师,”这位程序员在推特上谈到了解释正则表达式的能力。
这是其技术印章的一个令人印象深刻的例子:它可以模拟计算机,对命令行输入提供正确的响应。
什么是禁区?
这种行为旨在淘汰“不适当”的请求,符合其“确保通用人工智能造福全人类”的使命。
如果你问自己什么是禁区,它会告诉你:任何“歧视性、冒犯性或不恰当的问题。这包括种族主义、性别歧视、恐同、变性或其他歧视性或仇恨性问题。” 自讨苦吃 从事非法活动也是禁忌。
这比谷歌搜索好吗?
向计算机提出问题并得到答案是有用的,而且通常会交付货物。
它会不时地为您提供问题的建议答案以及它认为相关的网站链接。 通常的答案远远超过谷歌的建议,因此很容易将 GPT-3 想象成一个竞争对手。
但是在信任之前你应该三思而后行。 与自身和维基百科等其他信息来源一样,最佳做法是在依赖原始来源之前验证信息。
检查答案的准确性需要一些工作,因为它只为您提供一些没有链接或引用的原始文本。 但它可能很有用,在某些情况下会发人深省。 你可能不会直接在谷歌搜索结果中看到这样的东西,但谷歌已经建立了自己的大型语言模型,并且已经在搜索中广泛使用人工智能。
因此,它无疑为我们指明了腾云网络未来的发展道路。