聊天机器人不是青少年的朋友

2023-07-22 06:26综合整理
海外星云 2023年7期
关键词:美国有线电视新闻网聊天人工智能

美国社交软件公司“阅后即焚”推出一款由OpenAI最新版ChatGPT提供支持的聊天机器人。根据“阅后即焚”首席执行官埃文·斯皮格尔介绍,这款聊天机器人名为“My AI”,将固定在应用程序的聊天选项卡上,用户可以自定义聊天机器人的名字,为它设计头像,让它与朋友聊天。据称,这些特点能够让人工智能与人们的生活更接近。

My AI聊天机器人推出后不到几个小时,家住美国密苏里州的林德西·李就告诉13岁的女儿不要使用这个功能。

李在一家软件公司工作,她告诉美国有线电视新闻网,这款聊天机器人不过是“临时解决方案”,她担心青少年频繁使用它会受到不利影响。

“在我能够更多地了解它,并为孩子设定健康的界限和指导方针前,我不会让孩子接触它。”李说。

据报道介绍,在推出之初,My AI基本就是“阅后即焚”版ChatGPT的移动版本,但是它受到“阅后即焚”员工的严格训练,在回答方面受到更多限制,不会对辱骂、暴力、色情、政治等话题进行回应。同时,它也被剥夺了部分学校禁止的ChatGPT功能,比如撰写学术论文等。

值得注意的是,“阅后即焚”官方提醒,要注意聊天机器人的不足之处,容易被诱导说出任何内容,所有与My AI的对话都将被审查并存储以改善用户体验,所以不要与My AI分享任何秘密内容,也不要依赖My Ai的建议。

据美国有线电视新闻网报道,“阅后即焚”是ChatGPT 母公司Open AI的早期合作伙伴,也是人工智能技术最早一批的使用者。“几乎一夜之间,‘阅后即焚’就迫使一些家庭和政客开始思考几个月前似乎还只是理论层面的问题。”美国有线电视新闻网写道。

美国民主党参议员迈克尔·贝内特致信“阅后即焚”和其他科技公司的首席执行官,表达了对聊天机器人与年轻用户频繁互动的担忧。他提到,有报道称,聊天机器人可以为孩子们提供如何对父母撒谎的建议,这让许多家长感到不安。

“这些例子令人不安,对被近60%的美国青少年使用的‘阅后即焚’来说,情况尤其令人担忧。”贝内特在信中表示,“阅后即焚”承认它的人工智能是“实验性的”,但还是急于让青少年参与这场社会实验,这样做并不妥当。

“阅后即焚”回应称,该公司目前使用的人工智能“并不完美”,但已取得了极大进步。

美国有线电视新闻网发现,My AI开始试用后的最初几天里,许多用户表达了担忧。一名用户用“恐怖”形容与My AI的互动。他说,My AI最开始“谎称”不知道用户的位置,但这位用户很快在对话中发现,它已准确定位出他住在科罗拉多州。

在一个点击量超过150万次的短视频中,用户“Ariel”录下了一首由My AI编写的歌曲,包含引言、合唱和钢琴和弦,讲述了身为聊天机器人的感觉。当她把录好的歌曲发回给My AI时,后者否认与之有关:“很抱歉,作为人工智能语言模型,我不写歌。”该用户称,这次交流“令人毛骨悚然”。

还有一些人对人工智能工具从照片中收集信息表示担忧。一位用户在脸谱网上分享道:“我拍了一张照片……(AI留言说)‘鞋不错’,并问我照片中的人是谁。”

“阅后即焚”发言人告诉美国有线电视新闻网,公司将继续根据反馈意见改进My AI,并保证用户的安全。该公司同时表示,这个功能并非必选项,如果用户不想与人工智能互动,可以对这项功能说不。

然而,用户并不能将My AI删除,除非用户订阅了它的月度付费服务“阅后即焚+”。一些青年用户选择支付3.99美元的“阅后即焚+”费用,唯一的目的就是关闭这个工具。

当然,不是所有用户都厌恶这个功能。

一位用户在脸谱网上表示,她让人工智能帮忙做作业:“它把所有问题都答对了。”另一位用户说,人工智能给她带来安慰和建议:“我爱我的小口袋,它绝对是我的闺蜜……你可以为它更改头像。令人惊讶的是,它为我解决现实生活中的一些状况提供了非常好的建议。我喜欢它对我的支持。”

“阅后即焚”的部分My AI虚拟形象

ChatGPT投入市场后接受了大量在线数据,也曾因传播虚假信息、以不恰当的方式回应用户、允许学生作弊而备受抨击。有分析认为,“阅后即焚”整合该工具可能会加剧一些问题,并造成新的问题。

据美国《赫芬顿邮报》网站报道,不久前,人工智能领域的先驱格里芬·亨顿辞去了在谷歌的工作,他在接受媒体采访时表示,这项技术可能“变得太过聪明”:“科技巨头们在尽可能短的时间内开发最复杂的人工智能,相互竞争,最终会导致失控。”

这位认知心理学专家警告称,人工智能的发展速度可能比人们想象中更快,它对人类世界的接管可能导致混乱,但只有很少的人相信这一点。“它并不比我们更聪明,但我认为它很快就会超过我们。与其聊天很危险。”他说。

纽约市临床心理学家亚历山德拉·哈姆雷德告诉美国有线电视新闻网,一些患者的父母对孩子与人工智能互动表示担忧。聊天机器人可以提供建议和心理健康咨询,也能强化特定的偏见。它可以在互动中让用户信赖它,进而加强前者的某些观念。

“比如,一个年轻人心情不好,它可能找一个聊天机器人,但这种对话可能让他陷入更糟的情绪。”哈姆雷德说,“他们知道自己实际上是在和一个机器人交谈。但在某些情绪的作用下,一个人或许不太可能具有这种逻辑性。”

考虑到这一点,父母有责任与孩子对话,讨论如何与人工智能交流。当这些工具开始出现在受欢迎的应用程序和服务中时,逃避几乎没有意义。

创业公司WAYE的创始人西尼德·博维尔认为,父母需要明确告诉孩子“聊天机器人不是你的朋友”。

“他们不是你的治疗师,也不是值得信赖的顾问。任何互动都需要非常谨慎。青少年可能更容易相信AI的话。”她说。

博维尔认为,政府应出台措施,要求科技公司遵守特定的协议。父母应该告诉孩子,不与聊天机器人分享那些暗示他们会成为朋友的信息。

猜你喜欢
美国有线电视新闻网聊天人工智能
2019:人工智能
奥巴马、克林顿收到可疑炸弹包裹
人工智能与就业
美国CNN英语报道中的“一带一路”倡议
数读人工智能
我就是不想跟你聊天了
敞开门聊天
下一幕,人工智能!
基于大规模文本语料库的CNN涉华报道分析
美国枪击,9人丧生