Meta介绍了用于视频生成和图像编辑的AI模型
Meta详细介绍了一系列用于视频生成和图像编辑的人工智能模型
社交媒体巨头Meta在11月16日的一篇博文中介绍了其最新的人工智能(AI)模型,用于内容编辑和生成。
该公司推出了两个AI驱动的生成模型。第一个是Emu Video,它利用Meta之前的Emu模型,能够根据文本和图像输入生成视频剪辑。而第二个模型Emu Edit专注于图像处理,在图像编辑方面承诺更高的精确度。
这些模型目前仍处于研究阶段,但Meta表示它们的初步结果显示了创作者、艺术家和动画制作人的潜在应用场景。
![Meta展示其新的生成模型Emu Edit。来源:Meta](https://blockchain.miximages.com/s3.cointelegraph.com/uploads/2023-11/f4f1b07b-95b8-46e3-bd6c-050124c3107c.jpeg)
根据Meta的博文,Emu Video采用了“分解”方法进行训练,将训练过程分为两个步骤,以使模型对不同输入具有响应性:
- XRP价格预测:XRP从最近的高点下跌20% – 关注这些关键支撑位
- 微软和腾讯与Infura共同合作,共同打造区块链基础设施
- 以太币价格预测:24小时交易量激增至240亿美元—是时候买入以太币的低点了吗?
“我们将过程分为两个步骤:首先,根据文本提示生成图像,然后根据文本和生成的图像生成视频。这种“分解”或拆分视频生成方法可以有效地训练视频生成模型。”
在基于文本提示的情况下,同一模型可以“使图像动起来”。Meta表示,Emu Video仅使用两个弥散模型,以每秒16帧的速度生成512×512大小的时长为4秒的视频。
Emu Edit专注于图像处理,将允许用户删除或添加图像的背景,执行颜色和几何变换,以及局部和全局的图像编辑。
“我们认为主要目标不应只是生成一个“可信的”图像。相反,模型应专注于只精确地改变与编辑请求相关的像素,”Meta指出,并声称其模型能够精确地遵循指示:
“例如,当在棒球帽上添加文本“Aloha!”时,帽子本身应保持不变。”
Meta使用包含了Facebook和Instagram用户共享的照片和标题的11亿个数据片段,对Emu Edit进行了训练。公司表示:“我们认为这是迄今规模最大的数据集。”
Meta最近发布的Emu模型是通过使用11亿个数据片段进行训练的,其中包括用户在Facebook和Instagram上分享的照片和标题。Meta的CEO马克·扎克伯格在Meta Connect活动中透露了这一信息。
监管机构正在密切审查Meta的基于人工智能的工具,这导致该技术公司采取谨慎的部署方式。最近,Meta披露将不允许政治竞选团队和广告商使用其AI工具在Facebook和Instagram上创建广告。然而,该平台的一般广告规定不包括任何专门涉及AI的规定。
We will continue to update 算娘; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles