2023.01.28 第四期

诸位菩萨,展信佳!

本期阅读时长约 4 分钟。


一、AI 眼神交流技术

过去几年,AI 工具的兴起,目前已有一些 AI 软件提供了先进强大的 AI 眼神交流技术,可以实时编辑视频(和自拍),使人们看起来像在与相机进行眼神交流。这项技术用在电影镜头上时可以很有娱乐性,但当每个人都能在实时视频通话中使用它时,会发生什么?

The Verge 采访了专业的视觉特效专家 Daniel Hashimoto,了解他对该技术的看法和使用。

Hashimoto 惊叹于其使用的简便性。他只需将自己的浏览器与英伟达的广播应用连接起来,然后对他在线访问的任何视频片段进行实时编辑。同时也对该技术「难以置信」的色彩匹配和照明能力印象深刻。更重要的是,这项技术是微妙的:如果一个演员明显地将他的头从摄像机上移开,软件就会直觉到他在看别的东西,并暂不进行编辑。

Hashimoto 表示确信,「每一个视频会议工具在未来一小段时间内都会有一些这样的版本」,而且已经在这样使用

二、OpenAI 已经雇佣了一大批承包商来淘汰基本的编码

据 Semafor 的报道,OpenAI 已在全球范围内加大了招聘力度,过去 6 个月在拉丁美洲和东欧等地区招聘了大约 1000 名远程承包商。

大约 60% 的承包商被雇佣来做所谓的「数据标签」,即创建大量的图像、音频剪辑和其他信息,然后用来训练人工智能工具或自动驾驶汽车。

另外 40% 是计算机程序员,他们为 OpenAI 的模型创建数据来学习软件工程任务。OpenAI 现有的 Codex 产品于 2021 年 8 月推出,旨在将自然语言转化为代码。

一家外包机构用西班牙语发布的 OpenAI 招聘信息显示: 「一家成熟的公司正在寻找 Python 开发人员,该公司决心提供世界级的人工智能技术,让世界变得更美好、更高效。」

此前,OpenAI 用从 GitHub 获得的代码训练自己的模型,并且似乎正在构建一个数据集,其中不仅包括代码行,而且还包括用自然语言编写的代码背后的人类解释。

三、社交网络上虚假信息传播的关键原因是其奖励机制

根据发表在 PNAS 期刊上的一项研究,社交媒体对用户分享信息进行奖励的机制是虚假信息传播的关键原因。这一结论否定了此前认为的是虚假信息泛滥是因为用户缺乏分辨真伪的批判性思维能力,或者是因为政治信仰扭曲了判断。研究发现,15% 最习惯分享信息的用户传播了 30% 到 40% 的虚假新闻。是什么激励了用户分享信息?是社交媒体的奖励机制。它的奖励系统鼓励用户发布和分享信息。分享最耸人听闻的信息最可能会引起关注。一旦分享信息的习惯形成,用户不再考虑虚假信息可能会带来的后果。研究认为,社交媒体可通过改变奖励机制以限制虚假信息的传播。

四、数据一则

2022 年,微信公众号一共发布了 4 亿篇文章。阅读量 10 万+ 的有 36 万篇,占比不足 0.09%。原创文章有 1996 万篇,占比仅为 4.9%。

五、付费专栏更新

六、博客更新

七、正法眼藏

寒山问曰:世间有人谤我、欺我、辱我、笑我、轻我、贱我、恶我、骗我,该如何处之乎?

拾得答曰:只需忍他、让他、由他、避他、耐他、敬他、不要理他、再待几年,你且看他。


END

如果您觉得本期的内容还不错,欢迎您的订阅

您还可以在 Telegram 的频道找到我

顺颂时绥