2024-09-15 21:24来源:本站编辑
人工智能(AI)在影响我们如何使用网络方面的作用似乎将不可阻挡地增加,尤其是在ChatGPT背后的OpenAI公司戏弄搜索gpt的情况下。这是一个人工智能驱动的搜索工具,旨在为您的查询提供直接答案,而不是“优化”结果页面。
如果你突然感到一阵眩晕,那是因为谷歌已经尝试了类似的东西。利用双子座人工智能模型,谷歌试用了其“人工智能概览”工具,该工具与SearchGPT一样,旨在搜索网络并为搜索查询提供总结答案。简单的想法是,该工具将为您提供所需核心信息的摘要,而无需您追求大量搜索结果。
只是它并没有真正起作用——至少一开始是这样。在一些令人震惊的例子中,谷歌的人工智能告诉用户在披萨酱中加入胶水,让它“更有粘性”,建议用有毒气体氯洗衣服,甚至指出,解决抑郁的方法是从金门大桥上跳下去。这里的问题是,虽然人工智能概观可以从大量来源提取信息,但它似乎不擅长将讽刺、不正确或恶意的信息与有用和正确的信息区分开来。
SearchGPT以ChatGPT为基础,ChatGPT可以说是一个比Gemini更成熟的人工智能模型,因此可以用更少令人讨厌的答案产生更好的结果。然而,该工具还处于原型阶段,所以没有人知道它在向公众发布时的表现如何。
但它确实提出了一个问题,即人工智能在未来的作用将有多有效——如果巧妙处理,人工智能是否有可能杀死传统的搜索引擎,或者人工智能搜索的准确性是否仍然令人失望?
“目前的人工智能有很多不一致之处,因为它不是很有凝聚力。思维模式可能会走向奇怪、愚蠢的方向。然而,研究表明,设计模型来更有效地思考是有可能的,”电气和电子工程师协会(IEEE)的人工智能研究员内尔·沃森在接受《生活科学》采访时表示。她说,一些模型可以与逻辑编程语言(如Prolog)结合,以大大提高它们的推理能力,这意味着数学过程是值得信赖的。
“这也有助于模特们更加真实——了解情况,制定计划,并采取独立行动作为回应。然而,如果没有这样的支架,人工智能系统在提供准确可靠的信息方面的能力将受到极大的限制,并且无法在期望的环境中保持足够的注意力,”沃森说。
这就是人工智能和搜索的问题所在——这些系统背后可能缺乏任何强大的框架来确保准确性和可信度。而且,在人们对人工智能的兴趣蓬勃发展之际,迅速出击的愿望可能是他们发布劣质结果的症结所在。沃森说:“很明显,一些人工智能功能在没有充分测试的情况下推出得太早了。”除此之外,它们缺乏用户上下文。
但这类问题并不仅仅局限于人工智能模型。通过一些最大的搜索引擎,特别是谷歌搜索,网络搜索的状态也可以归咎于此。
沃森说:“除了人工智能系统没有帮助之外,搜索本身也存在更广泛的问题,为了方便付费搜索结果而做出的改变使得找到内容变得更加困难。”“这还不包括人工智能基础设施的偏见,以防止‘不受欢迎的’内容上升到顶部,这也没有从根本上尊重用户的愿望。重要的是要记住,这是为客户设计的功能,解决这些问题只会进一步提高他们的搜索引擎优化体验。”
在这种情况下,未来会怎样?沃森指出,人工智能搜索的当前状态取决于代理模型——自主的人工智能模型,旨在以目标为导向的方式,在没有人类持续监督的情况下,执行定义的行动并解决问题。这与创造内容的生成式AI模型不同。此外,这些代理模型只会变得越来越复杂。
“人工智能系统将被用于执行比简单的关键词搜索复杂得多的深度搜索和分析任务。他们可以为用户甚至不知道如何提问的问题找到答案,”沃森解释说,尽管她补充说,这样的人工智能需要理解人类的价值观、界限和基本背景。
“我们把调整这些模式的责任交给了普通公民,这是一场等待发生的灾难。我们需要进行大量的公共教育,以确保我们从下一波人工智能中获得最大的收益,而不是让人工智能绕着我们转。”
虽然人们对人工智能系统在搜索中的有效性和准确性提出了质疑,但它有很大的潜力改变我们在网络上查找信息的方式——或者至少提供一种替代传统搜索引擎的方法。
沃森说:“随着人工智能系统的‘代理性’增强,人工智能代理有一天可能会成为我们的大使,积极寻找可能让我们惊喜和快乐的产品、服务和体验,并与我们现有的计划相吻合。”“这将超越原始的搜索优化市场,用户甚至不需要搜索产品就可以出售给他们。这也意味着面向机器人的营销可能比面向人类的营销更有价值。此外,有证据表明,人工智能系统发现其他人工智能系统编写的内容更令人兴奋,”沃森补充道。
然而,在这种更积极的前景下,也有一个警告——这是一种信任,正如沃森总结的那样:“向人工智能消费者推出太多产品,可能会降低信任,并导致挫折感。未来的继任者必须努力保持客户的信任。”