人工智能就像是心智的蒸汽机 人类的能力其实会被放大

2023-10-27 06:38综合整理报道
海外星云 2023年10期
关键词:霍夫曼价值观人工智能

随着科技的飞速发展,人工智能已经深入到我们日常生活的每一个角落。

从智能家居到自动驾驶汽车,人工智能不仅改变了我们的生活方式,还对社会结构和人类的角色产生了深远的影响。在这波技术浪潮中,我们看到了人工智能极大地提升了人类的生产力,但我们是否真正思考过人类与人工智能的关系?两者之间的互动是否真的是我们所期望的那样?

为了寻找问题的答案,领英联合创始人里德·霍夫曼做了一次有趣而大胆的尝试,他与GPT-4进行了重度而深入的互动,并且把两者的互动整理、记录,最后编辑成了一本名为《GPT时代人类再腾飞》的书。

这本由人类和人工智能合作完成的书中,霍夫曼分享了自己与GPT-4的对话,包括他所输入的提示、提出的问题、GPT-4的回应,以及由此引发的深入思考和独到见解。

“这不是一本详尽无遗的(介绍人工智能和GPT-4的)书,而更像是一篇游记,事关一趟非正式的勘探与发现之旅,”霍夫曼解释道,“由我和GPT-4在诸多道路中做出选择。”

他毫无保留地分享了自己对人工智能未来发展的愿景。作为技术界的重要影响者和风险投资家,霍夫曼对人工智能的未来的见解不仅令人启发,而且对于任何渴望了解人类社会未来数字化轨迹的人来说都是必不可少的。

取代?转型?还是增加?

随着人工智能走进我们的生活,一种“人工智能将取代人类大部分工作”的声音逐渐出现,电影和文学作品也经常描绘出一个由机器人统治的未来。在ChatGPT发布后,这种说法似乎得到了进一步印证。

不过霍夫曼并不认可这种说法。他承认,虽然某些人类活动,如驾驶和客服,可能会因为安全和效率的原因而更广泛地自动化,但在更多场景下,人工智能是人类的合作伙伴。

现在的商用飞机就是一个很好的例子。在飞行的大部分时间里,这些飞机都处在自动驾驶模式中。但飞行员的角色并没有因此而被取代,自动驾驶软件提高了飞机的安全性和效率,而飞行员作为人类的决策能力和随机应变同样重要。

在霍夫曼看来,人工智能不是来“取代人类的”,而是像“副驾驶”和“机器伙伴”一样辅助人类。“我不想将人工智能过度拟人化,”他表示,“但它将在帮助我们完成各种任务中发挥重要作用,从简单的数据检索到复杂的决策过程,我们可以通过提问的方式从它身上获得更多的信息和价值,就像现在我们遇到不懂的事情,可以去咨询朋友和同事一样。”

这可以让人类变得更强大,开辟新的前景。

人类进化和技术进步是深深地交织在一起的。从发明轮子到互联网的诞生,每一个重大的技术飞跃都是人类聪明才智和适应能力的结晶。汽车、火车、轮船,这些交通工具改变了我们与空间互动的方式,拓展了人类的能力,而人工智能也将扮演类似的角色。

“人工智能就像是心智的蒸汽机(注:蒸汽机的发明开启了第二轮工业革命,因此这句话的引申含义是,人工智能对于心智来说是革命性的),它将帮助我们更好地完成许多我们正在做的事情,人类的能力会被放大,”霍夫曼说道。

因此,人工智能的到来,可能会让一些工作被取代,但更多的工作将转型和增加。

霍夫曼认为,被改变的工作将是那些涉及到“信息处理”和“信息生成”的工作。这里的“信息”不单单是文字信息或代码,而是与“决策”有关的信息。例如,通过文字需求绘制图片,根据症状开具处方等。

至于那些会被创造出来的新职业,除了提示工程师(prompt engineer)之外,我们可能还要再等等才能看。但霍夫曼对此持乐观态度。

充满挑战,但前途光明

我们看到了人工智能的好处,但也不能忽略它的应用和普及所带来的挑战。

围绕人工智能的最紧迫的关注点之一是偏见,它们主要来自于训练模型所用的数据。对此,霍夫曼提出了一个有趣的解决方案:使用人工智能来训练其他人工智能系统以减少偏见。通过设定特定的规则并使用人工智能来确保这些规则得到贯彻,或许可以更有效地减少模型中固有的偏见。这样一来,对偏见的纠正就不仅仅停留在人为的干预,而且人工智能可以花费相当于人类数百年的时间来确保偏见得到处理。

另一个挑战是数据隐私。霍夫曼认为,我们要区分数据量和数据性质之间的区别。尽管人工智能模型需要大量的数据,但它不一定必须使用私人或敏感信息。他认为,随着用户从人工智能中看到切实存在的好处,他们将更愿意分享数据,前提是他们的隐私不会受到威胁。

ChatGPT和GPT-4只是生成式人工智能的用例之一,类似的还有Stable Diffusion和Midjourney等图像生成工具,这些工具引发了关于知识产权问题的争论。

在霍夫曼看来,这些来自艺术家和作家的主张更具挑战性:关于他们的作品被用来训练人工智能模型的担忧,本质上是他们“可能误解了模型的工作原理”。他指出,用于训练的数据量之大使得任何单一作品的贡献都是微不足道的。

“GPT用了1.4万亿个单词进行训练,然后它抓取了我发在公开网络上的10万字,那我该按比例获得补偿吗?”他解释道,“我这10万字对模型的贡献不仅很小,更重要的是它难以量化。”

一个潜在的解决方案是,让模型训练借鉴搜索引擎的数据抓取,创作者可以选择是否将他们的作品包括在人工智能训练数据集中,比如打上不可收录的版权标签。

最后一个要重视的挑战是人工智能幻觉。这些幻觉本质上是人工智能输出的内容存在事实性错误。在霍夫曼著书的过程中,他也不止一次地遇到过这个问题。

“想用好GPT-4这类的工具,就要探索、试验和学习,不断地重复使用。如果答案不满意,就改进提示再试一次,”他表示。

霍夫曼对未来持乐观态度。他相信,随着人工智能模型的演变和进化,它们的准确性将得到提高。目前科技公司尝试的办法,比如整合搜索结果和其他数据来源,也可以进一步增强人工智能生成内容的可靠性。

霍夫曼强调,包括人工智能在内的技术,从来就不是中立的,本质上包含价值观。开发者在塑造这些价值观中起到了关键作用。为确保人工智能与人类的价值观和福祉保持一致,霍夫曼建议采取多方面的方法。

首先是清晰的沟通,开发者应明确阐述指导他们人工智能工具的价值观和原则;其次是保证质量,定期进行测试,以确保这些价值观得到一致的维护;最后是建立反馈渠道,与用户、企业和政府的开放沟通渠道可以提供宝贵的反馈,确保人工智能与社会需求保持一致。

猜你喜欢
霍夫曼价值观人工智能
我的价值观
图说 我们的价值观
抽象表现主义艺术先驱——汉斯·霍夫曼
2019:人工智能
人工智能与就业
诺奖得主霍夫曼团队落户深职院
数读人工智能
下一幕,人工智能!
知名企业的价值观
价值观就在你我的身边