服务热线:86689830
意见反馈邮箱:itc-self@wmu.edu.cn
您现在的位置: 网站首页 > 新闻资讯 > 信息安全 > 正文
AI加持的新搜索引擎可信吗?
  

2个月前,聊天机器人ChatGPT横空出世,其能像人类一样撰写文章并回答问题的能力震惊了世界。这种聊天机器人带来的对于科技行业的颠覆力量如此之大,以至于它有可能彻底改变用户使用互联网的方式。包括微软和谷歌在内的科技巨头们已开始采取行动、奋勇争先,以免错过这股新浪潮。

诸多迹象表明,人工智能(AI)已点燃了互联网搜索引擎领域的新战火。但人们能在多大程度上相信这些聊天机器人及其给出的答案呢?《自然》等杂志表示,鉴于谷歌的巴德(Bard)聊天机器人在给出答案时出现了事实性错误,而且,聊天机器人给出答案也缺乏透明度,人类对聊天机器人给予信任还有待时日。

人工智能抢滩搜索引擎

据《自然》网站2月13日报道,世界上最大的3个搜索引擎:谷歌、必应和百度上周表示,他们将把ChatGPT或类似技术集成到自家的搜索产品中,让人们直接获得答案或进行对话,而不仅仅是在键入单词或问题后收到链接列表。这3家公司都在使用大型语言模型(LLM)。LLM通过呼应它们在大型数据库中搜寻到的文本统计模式来创建令人信服的句子。

据悉,微软的必应使用与其投资的开放人工智能(OpenAI)公司开发的ChatGPT相同的技术。微软于近日演示了如何处理自然语言查询,利用新闻报道、火车时刻表和产品定价等信息生成答案和建议。无独有偶,2月6日,谷歌公司宣布将推出由人工智能驱动的搜索引擎巴德,巴德目前正由一小群测试人员使用。百度公司由AI驱动的聊天机器人“文心一言”(ERNIE)则将于3月上市。

法国国家科学研究中心主任蒂耶里·布瓦博解释说,有AI加持的搜索引擎,会给所提问题一个答案,不用像现在一样还要查看资料才能获得答案。

此前一些较小的公司已发布了AI驱动的搜索引擎。例如,去年8月,美国计算机科学家阿拉文德·斯瑞尼瓦斯等人发布了基于LLM的搜索引擎Perplexity,其类似传统搜索引擎与ChatGPT的结合体。他说:“搜索引擎正在演变成一种新状态,你可以开始与它们交谈,就像与朋友交谈一样。”

人类能给出多大信任

那么,人类可以相信这些聊天机器人吗?

瑞士苏黎世大学计算社会科学家亚历山大·乌尔曼表示,与独立的搜索引擎相比,人们可能更容易信任整合了聊天机器人的搜索引擎给出的答案。

美国佛罗里达大学科学家2022年开展的一项研究发现,对那些与亚马逊和百思买等公司使用的聊天机器人进行互动的参与者来说,机器人越像人,它们就越信任该公司。

行业研究人员表示,通过用互联网上的大量文本数据集进行训练,ChatGPT等工具能以流畅的对话回答用户的各种问题,但这种聊天机器人不能保证回答准确。据英国《新科学家》网站报道,巴德给出的与詹姆斯·韦布空间望远镜有关的答案中就包含明显的事实错误。

谷歌发言人表示,巴德的错误“凸显了严格测试流程的重要性”。但一些人猜测,一旦用户发现这些错误,他们可能会对基于聊天机器人的搜索失去信心,而非增加信任。由于投资者担心未来并抛售股票,这一错误使谷歌的市值缩水1000亿美元。

《自然》指出,ChatGPT也存在一种倾向:为那些它不知道答案的问题创造虚构的答案,这可能导致虚假信息泛滥。专家警告说,还有一个风险是网民可能对答案感到满意,但会被唯一的答案带偏或控制。

缺乏透明度

相对缺乏透明度也使不准确问题变得更加复杂。通常搜索引擎会向用户展示答案的来源:一个链接列表,以让用户自行选择,但很少有人知道LLM训练的数据是什么。如果语言模型不正确,或传播错误信息,可能会产生重大影响。

西班牙拉里奥哈国际大学AI专家胡安·伊格纳西奥·罗耶特指出,使用普通搜索引擎时,用户可看到信息的来源,但在这些聊天机器人平台上则看不到。

法国巴黎数据科学平台Hugging Face的首席伦理学家贾达·皮斯蒂利表示,聊天机器人驱动的搜索模糊了机器和人类之间的区别。她担心目前科技巨头采用AI技术的速度有点太快,“他们总是在没有任何控制或我们还不知道如何正确使用的情况下将这些新技术扔给我们”。

(来源:科技日报)





Copyright 2020 © 版权所有 温州医科大学信息技术中心