导读:关于chatgpt正在改变的行业。
微软与人工智能聊天工具ChatGPT的开发商OpenAI的合作,已经在科技界掀起了一股追逐人工智能的热潮。
向通用场景进军
目前微软的一个研究团队正在进一步推进人工智能技术,试图让ChatGPT突破计算机限制来控制机器人,让它们在现实世界中自由发挥。
微软研究人员设想了这样一个未来:普通人可以向内置于家庭机器人中的数字家庭助理发出诸如“请给我做一顿热午餐”之类的命令,然后就可以看着机器人从头到尾完成任务。
虽然微软研究人员承认他们的工作“只代表了一小部分可能性”,但他们警告说,在没有“仔细分析”的情况下,不应部署这样的 ChatGPT 应用程序。
OpenAI 在去年 11 月底向公众发布 ChatGPT,结果火爆全网,也引起了业界的强烈关注。专家预计许多行业,包括写作、教育和软件工程,都会被这项技术颠覆。
ChatGPT,“假冒”的科学家
ChatGPT 已经进入科学领域。
周四, Kareem Carr 发布了一篇论文的截图,ChatGPT 是该论文的合著者。
为什么不把ChatGPT 是一种工具呢?人们已经开始将 ChatGPT 视为真正的、有良好资质的科学合作者。
Gary Marcus 在 Substack 的帖子中强烈呼吁人们:“科学家们,请不要让你们的聊天机器人成长为合著者”。
更令人担忧的是那些没有披露人工智能使用情况的案例。科学家们发现他们无法可靠地识别其论文摘要是不是 ChatGPT 编写——它写的有用的废话甚至愚弄了领域里的专家。
牛津大学“研究技术和监管”的桑德拉·瓦赫特 (Sandra Wachter) 在一篇关于自然的文章中与霍莉·埃尔斯 (Holly Else) 交流时说道 :
“我们现在处于专家无法确定什么是真的或什么是假的情况,我们迫切需要的中间人来指导解决复杂的话题。”
ChatGPT 对教育的挑战
ChatGPT 已在全球各地的一部分教育机构被禁止(知名如纽约公立学校、 澳大利亚大学和香港中文大学等)。
NYT 的 Kevin Roose 却认为 ,“ChatGPT作为教育工具的潜力大于其风险。” 数学家陶哲轩也同意此说法:“从长远来看,与之抗争似乎是徒劳的;也许我们作为讲师需要做的是转向“开放书籍,开放人工智能”的考试模式。”
Hugging Face 的首席伦理学家Giada Pistilli解释了学校在 ChatGPT 方面面临的挑战:
“不幸的是,教育系统似乎是被迫适应这些新技术。
作为一种反应,我认为这是可以理解的,因为在预测、减轻或制定替代解决方案以及可能产生的问题等并没有做太多工作。颠覆性技术需要教育好用户,它们不能不受控制就简单地扔给人们。”
最后一句话完美地抓住了问题出现的地方,还有潜在的解决方案。
我们必须付出额外的努力来教育用户这项技术是如何工作的,还有什么是可能的,而不是他们做的。
以下是加泰罗尼亚采取的方法:
“教育部门不可能‘在整个系统和所有人’中禁用ChatGPT,因为这将是一种无效的措施。” 根据该部的消息,最好让这些中心进行人工智能使用方面的教育,“这可以提供很多知识和优势。”
学生的好朋友:错误数据库
Gary Marcus 和 Ernest Davis 建立了一个“错误跟踪器”来捕获和分类像 ChatGPT 这样的语言模型所造成的错误库。
该数据库是公开的,任何人都可以参与。这是一个很好的资源,可以用来严格研究这些模型如何行为不端以及人们如何避免误用。
OpenAI 意识到了这一点,并希望与错误和虚假信息作斗争:“为虚假信息活动预测语言模型的潜在滥用以及如何降低风险。”
GPT-4 信息和错误信息
Sam Altman在与 TechCrunch 编辑Connie Loizos 的谈话中暗示 GPT-4 的发布会延迟 。Altman 说:“总的来说,我们发布技术的速度比人们希望的要慢得多。我们将在上面坐更长的时间……”:
(奥特曼还说有一个视频模型正在制作中)
关于 GPT-4 的错误信息
社交媒体上到处都有“GPT-4 = 100T”的说法。如果你还没有看到它,它看起来像这样:
或者像这个:
所有这些都是同一事情的略微不同版本:吸引注意力的吸引人的可视化图表,以及与 GPT-4/GPT-3 比较的强大关联(使用 GPT-3 作为 ChatGPT 的代理)。
机器人律师与首先
DoNotPay 的首席执行官 Joshua Browder 在 1 月 9 日发布了以下文章:
原译是:DoNotPay 将向美国最高法院即将审理的案件支付 100 万美元,让其佩戴 AirPods 并让我们的机器人律师通过准确重复其陈述的内容来为案件辩护。
这一大胆的声明引起了 很多争论 ,Twitter 现在用指向最高法院违禁物品页面的链接来标记这条推文。
即使他们最终由于法律原因不能这样做,也值得从道德和社会的角度考虑这个问题。如果人工智能系统犯了严重的错误会怎样?无法找到律师的人能否真正从这项技术的成熟版本中受益?
然而,针对稳定扩散的诉讼已经开始。Matthew Butterick 于 1 月 13 日发表了这篇文章:
“我们代表三位优秀的艺术家原告——Sarah Andersen Kelly 、 McKernan 和Karla Ortiz——对 Stability AI、 DeviantArt 和Midjourney 提起集体诉讼, 指控它们使用 Stable Diffusion ,这是一种 21 世纪的拼贴工具,重新混合了数百万艺术家的受版权保护的作品,这些艺术家的作品被用作训练数据。”
一部分艺术家已经开始了向人工智能 “斗争”的第一步,以缓解生成式人工智能的训练和使用:“AI 需要对每个人都要公平和合乎道德。”
但是,它深入研究了稳定扩散的技术细节,但未能正确解释某些部分。这是否是有意为那些不知道——也没有时间学习——这项技术如何工作的人弥合技术差距的一种手段。
CNET 发布 AI 生成的文章
几周前,CNET未来主义报道了这一点:
“ CNET是一家广受欢迎的科技新闻媒体,它一直在悄悄地利用“自动化技术”——人工智能的一种委婉说法——来推出新一波的金融类文章。”
最早发现这一点的盖尔·布雷顿 (Gael Breton) 在周五撰写了一篇更深入的分析文章。他解释说,谷歌似乎并没有阻碍这些帖子的流量。“AI内容现在可以过审了吗?” 他问。
CNET 决定在文章中应用 AI 是一个很好的先例。而现在有多少人在不公开的情况下使用 AI 来发布内容?如果这种做法奏效,人们可能会失业。 它可能已经发生了:
我完全同意圣地亚哥的这条推文:
用于图像生成的 RLHF
如果通过人类反馈的强化学习适用于语言模型,为什么不适用于文本到图像?这就是 PickaPic 正在努力实现的目标。
以下是使用pickapic 生成的艺术图像。
该演示目前用于研究目的,是对 Stable Diffusion 或 DALL-E 的有益补充。
“让 Siri/Alexa 性能提升 10 倍”的秘诀
以下是有人发出,混合不同的生成 AI 模型以创建更好的方法:
ChatGPT还在影响着与颠覆着各个领域,绝对不只这些。限于篇幅,今天就先介绍这里,欢迎您补充留言。
作者:场长
参考:
https://albertoromgar.medium.com/chatgpt-gpt-4-and-more-generative-ai-news-17e0b114a96c
本文为 @ 场长 创作并授权 21CTO 发布,未经许可,请勿转载。
内容授权事宜请您联系 webmaster@21cto.com或关注 21CTO 公众号。
该文观点仅代表作者本人,21CTO 平台仅提供信息存储空间服务。