OpenAI标志出现在这张2023年2月3日拍摄的插图中。[照片/机构]
周五,OpenAI发布了其首个大规模文本到视频模型Sora。它可以根据用户输入提示生成一分钟长的高清视频,包含多个字符、场景和相机动作。这些功能对人工智能模型来说并不新鲜,但索拉已经向前迈出了一大步,因为她能够生成视频,同时使用诸如风景和颜色等相机语言来表达情感。
OpenAI在一份新闻稿中声称,Sora将成为实现人工通用智能的重要里程碑。
然而,不管索拉视频看起来多么逼真,它们仍然是数字模拟,而不是真实的电影现实,这可能会使“后真实”现象变得更糟。
“后真实”指的是一种文化氛围,在这种氛围中,客观事实对形成公众舆论的影响不如对情感和个人信仰的诉求大。客观事实和专家意见被淡化或否定,取而代之的是错误信息和虚假信息,这些信息形成了具有说服力的叙述,并影响了先入为主的观念和情感。各种信息和通信技术的使用会使人们很难在网上查看的内容中区分真假,许多人缺乏找出真相的意愿或耐心。相反,个人倾向于与确认其现有信仰的信息保持一致,从而导致回声室和意识形态分歧的加剧,人们会根据自己相信的事实相互争吵。索拉的出现可能会进一步模糊真实与虚构之间的界限,从而加剧这种局面。
在推广Sora等新技术之前,应提前评估和准备潜在的风险和挑战。例如,政府可以强制信息提供商将其提供的信息标识为人工智能生成的内容,以便明确内容的来源。
此外,索拉的出现可能会导致电影、电视等相关行业的大量失业,这是一个不容忽视的重大社会风险。
对于大规模应用人工智能可能导致的失业问题,已经有很多深入的研究,并提出了许多解决方案,包括减缓人工智能技术应用的速度,协助再就业,以及征收人工智能税。现在,Sora的一夜成名提醒人们,是时候加快、完善和实施这些措施了。
北京新闻