导读 作者:SebastianPier自己的图像的日子越来越近了!此外,WhatsApp用户将能够从Meta的AILlama模型中选择两种不同的模型:3-70B(更简单、更快
作者:SebastianPier自己的图像的日子越来越近了!此外,WhatsApp用户将能够从Meta的AILlama模型中选择两种不同的模型:
3-70B(更简单、更快捷的任务)
3-405B(更复杂的查询)
这是始终提供信息量的WABetaInfo的最新发现,该报告重点关注WhatsApp的2.24.14.13测试版。
在之前的更新版本2.24.14.7中,WhatsApp透露了其整合MetaAILlama模型的工作,为用户提供了对不同交互复杂性的不同AI模型选择。
用户可以选择Llama3-70B模型来完成较简单的任务,也可以选择更高级的Llama3-405B模型来完成较复杂的查询。当前的更新表明,WhatsApp并非例外:在2024年,一切都以AI为导向。就我个人而言,我有时会觉得整个事情令人不知所措,但我会拭目以待,看看这项新功能在WhatsApp中的表现如何。它可能会派上用场!
最新测试版详细介绍了这项新功能,它使用户能够通过拍摄一组设置照片来创建AI生成的自己的图像。然后,MetaAI将分析并使用这些照片来生成准确反映用户外观的图像。用户可以完全控制此功能,并能够随时通过MetaAI设置删除他们的设置照片。
要生成AI图像,用户可以在MetaAI对话中输入“想象我”。此功能还可以通过输入“@MetaAI想象我”在其他聊天中使用。值得注意的是,MetaAI将此命令与其他消息分开处理,以确保用户隐私。生成的图像将由应用程序自动在对话中共享。
此功能是可选的,需要用户通过在设置中启用它并拍摄设置照片来选择加入。此功能的开发正在进行中,计划在未来的更新中提供。
本文是