导读:人们无法预料大语言模型还会再生成什么,也不知道算力和数据的极限在哪里,但生成式 AI 的革命已经是不可阻挡的趋势。
12 月 13 日,国际科学期刊《Nature》发布了 2023 年度十大人物(Nature’s 10)。该人物榜单的目标是评选出为科学和技术领域做出重要贡献,并引起人们对关键问题关注的个人。
但是与往年不同的是,今年的 Nature’s 10 包含了大型语言模型(LLM)ChatGPT,这是有史以来第一次“计算机程序”入选。
《Nature》周刊表示这一做法旨在认可模仿人类语言的人工智能系统在科学发展和进步中所发挥的作用。
Nature 总结了 ChatGPT 这一年给科学领域做出的贡献。
首先,ChatGPT 与人类共同撰写了一些科学论文 —— 有时是暗中进行且不具名的。其中,ChatGPT 负责起草演示文稿、项目大纲,编写计算机程序代码,激发研究灵感。
ChatGPT 本身是按照其训练数据的风格合理地生成对话响应。但在这样做的过程中,它和其它生成式人工智能 (AI) 程序正在改变包括科学家和各个行业人员的工作方式。
ChatGPT 是 OpenAI 在 2022 年 11 月 30 日发布的,今年 OpenAI 又升级了其底层 LLM,并将其与其他程序连接起来,以便接收和创建图像,并可以使用数学和编码软件来提供帮助。这些改进让 ChatGPT 逐渐成为科研人员的得力助手。
然而,生成式 AI 技术也有其危险的一面。例如,它们可以帮助作弊者和抄袭者,如果不加以控制,可能会不可逆转地污染科学知识的源泉。一些研究人员已经承认使用 ChatGPT 生成文章但未声明。并且,ChatGPT 也会编造一些参考资料,编造事实并生成一些含有偏见的内容。
大型语言模型的规模和复杂性意味着它们本质上是「黑匣子」,但当 AI 的代码和训练数据不公开时,理解它们的行为就变得非常困难了,就像我们面对 ChatGPT 时遇见的情况一样。开源 LLM 的运动正在不断发展,但到目前为止,这些模型的能力不如大型专有项目。
此外,ChatGPT 等生成式 AI 还重新引发了关于人工智能的局限性、人类智能的本质以及如何最好地调节两者之间相互作用的讨论。
总的来说,ChatGPT 入选 Nature’s 10可谓「实至名归」。
ChatGPT 的创造者成为年度科学人物
尽管机器被首次推上了年度科学人物的位置,但《自然》杂志的 Nature’s 10 名单中还包括了它的创造者之一Ilya Sutskever 。
Ilya Sutskever 是 OpenAI 首席科学家兼联合创始人,也是生成式人工智能最前沿的思想家之一。他将这家获得微软大力资助的公司视为开发通用人工智能(AGI)的机会。近几年来,他一直致力于创建一种方法来指导和控制比人类更聪明的人工智能系统。
Sutskever在关于人工智能的发展的言论一直很大胆。2022 年,他宣称人工智能可能已经“有意识”,以各种方式唤起敬畏、恐惧和嘲笑。他公开表示,AGI甚至超越人类智力总和的“超级智能”,需要进行对齐,否则可能在十年内发生善,包括导致人类失去权力甚至于整体灭绝。
人工智能研究员安德鲁·吴恩达(Andrew Ng)说,Sutskever具有令人钦佩的特质,即能够选择一个方向并坚持不懈地追求,无论他人怎么看。
作者:大雄
参考内容:
https://english.elpais.com/science-tech/2023-12-13/for-the-first-time-the-journal-nature-has-chosen-a-non-human-being-chatgpt-as-one-of-its-scientists-of-the-year.html
https://hk.finance.yahoo.com/news/ilya-sutskever-man-center-openai-211351628.html
本文为 @ 场长 创作并授权 21CTO 发布,未经许可,请勿转载。
内容授权事宜请您联系 webmaster@21cto.com或关注 21CTO 公众号。
该文观点仅代表作者本人,21CTO 平台仅提供信息存储空间服务。