看到最近一些关于 ChatGPT 影响的观点,我忍不住翻白眼。
关于这个话题的内容铺天盖地,各种媒体和评论员都争相报道。没错,我也不止一次地沉迷。
我之所以再次关注这个话题,是因为目前的报道似乎都忽略了生成式人工智能的本质。它要么是世界末日的灾难,要么只是个危险的噱头。
你会看到要么说这项技术会抢走你的工作,要么说它会生成不准确的数据,要么说它可以用来“提高效率”。是的,这些说法听起来令人不寒而栗,因为坦白讲,如果你需要聊天机器人来帮你起草邮件,那你肯定有更棘手的问题需要担心。
只要用过这个工具,你就会发现,虽然它是一项了不起的技术,但它的局限性显而易见。它只是机械地重复信息,没有分析能力。所以,当我读到Futuirism对《男性杂志》(Men's Journal)上一篇关于男性低睾酮症的AI生成文章的分析时,这篇文章“充斥着许多不准确和错误之处”,我更感兴趣的是编辑流程,而不是错误本身。
《男性杂志》是如何构建其AI提示的?审阅稿件的编辑是否是该领域的专家?他们是否使用了编辑,还是直接交给了校对员?我没有答案,但我确实有一些猜测。
事实上,我们离能够完全信任机器完成工作还差得很远。我从2005年获得一周的编辑实习经验开始,就一直在专业编辑领域工作,我可以告诉你:我不相信人类(包括我自己)能够写出一份毫无错误的初稿。
关于这项技术,我们还有很多东西需要学习。即使是AI提示,也算是一个新兴领域。
作为一个从小就热爱电子游戏的人(尽管现在没有那么多空闲时间玩游戏,但依然热爱),我对“涌现式游戏玩法”的概念并不陌生。在这种玩法中,游戏开发者构建了一个规则清晰的世界,而玩家则探索出与这个世界互动的新奇且意想不到的方式。例如, 《精英:危险》中的燃料鼠。
我认为涌现式游戏玩法与我们目前在生成式人工智能方面所取得的成就之间存在着相似之处。要充分理解如何利用 ChatGPT 等工具,需要大量的尝试和摸索,而这些实验过程将会耗费大量宝贵的时间。
如果你已经花了一些时间使用 ChatGPT,那么你就会了解提示是如何工作的。然而,你可能还没有看到它的最终目标,如果是这样的话,可以看看这个YouTube 视频。这个频道深入探讨了如何构建一系列远不止几行文字的自引用提示。
然而,我特别感兴趣的是评论区的讨论,其中有人指出,根据 OpenAI 的说法,
内存限制为 4000 个词元目前,越来越多的用户正在共同努力,寻找使用该工具的最有效方法。我们都需要尽力跟上这些高级用户的步伐。利亚姆·曼尼克斯 (Liam Mannix) 在《悉尼先驱晨报》上论证了这一点,他指出,那些学会如何利用这项技术的人实际上可以成为“人工智能先知” 。萨蒂亚·纳德拉 (Satya Nadella) 在一月中旬接受的采访也强调了 ChatGPT 在倍增人类生产力方面的潜力。纳德拉指出,一些顶尖的人工智能开发人员已经在使用人工智能来接管许多重复性工作,从而让他们能够专注于更具生产力的任务。





