
أعلنت Google DeepMind إطلاق نسخة محسّنة من ميزة “Ingredients to Video” ضمن نموذج الفيديو Veo 3.1، مع تحسينات تَعِد بمزيد من التعبير الإبداعي، واستقرار الشخصيات والخلفيات، ودعم الفيديو العمودي للهواتف، إضافة إلى ترقية جودة الإخراج إلى دقة 1080p و4K.
وأكد ريكي وونغ، مدير المنتج الرئيسي في Google DeepMind، أنّ التحديث الجديد يجعل Veo 3.1 قادرًا على توليد مقاطع حيوية وديناميكية تبدو طبيعية وجاذبة، مع دعم إنشاء الفيديوهات العمودية الموجهة للمنصات مثل YouTube Shorts مباشرة من الهاتف.
وأشارت جوجل إلى أنّ المستخدمين يمكنهم تجربة Veo 3.1 المحدّث عبر تطبيق Gemini، وYouTube Shorts، وFlow، وواجهة Gemini البرمجية (Gemini API)، ومنصة Vertex AI، وأداة Google Vids. كما أوضحت الشركة أنّ الملخصات المرفقة بالمحتوى تم توليدها بواسطة Google AI، وأن تقنيات الذكاء الاصطناعي التوليدي لا تزال تجريبية.
تحسينات واسعة على Veo 3.1 Ingredients to Video
استهدفت Google DeepMind في هذا الإصدار تعزيز قدرة “Ingredients to Video” على تحويل الصور المرجعية (ingredient images) إلى مقاطع فيديو ممتعة وقابلة للمشاركة، حتى عند استخدام أوامر نصية قصيرة وبسيطة. ذكرت الشركة أنّ هذه التحديثات تجعل الفيديوهات أكثر تعبيرًا وإبداعًا مع حوارات وسرد قصصي أكثر ثراء، بحيث تبدو المقاطع أكثر حياة وتعبيرًا.
وأوضحت جوجل أنّ هذه التحسينات تُطرح اليوم في تطبيق Gemini، وYouTube، وFlow، وGoogle Vids، وواجهة Gemini البرمجية، و Vertex AI، بما يتيح دمج القدرات الجديدة في تدفقات العمل الإبداعية والمهنية على حد سواء.
الحفاظ على هوية الشخصيات عبر المشاهد
وأفادت جوجل أيضاً أنّ Veo 3.1 Ingredients to Video يقدّم الآن مستوى أفضل من “اتساق الهوية” للشخصيات. يتيح ذلك إبقاء ملامح الشخصية ومظهرها ثابتًا حتى عند تغير المكان أو السياق، الأمر الذي يساعد صُنّاع المحتوى على بناء سرد قصصي متماسك تظهر فيه الشخصية نفسها عبر عدة مشاهد دون اختلافات ملحوظة في الشكل.
يساعد هذا الاتساق البصري على تسهيل إنتاج قصص كاملة تعتمد على الشخصيات نفسها، سواء لمبدعين هواة أو لصنّاع أفلام محترفين يبحثون عن تجربة تحكم أعلى في تفاصيل الشخصيات التي يولّدها الذكاء الاصطناعي.
اتساق الخلفيات والكائنات والتحكم في المشهد
أشارت جوجل أيضًا إلى أنّ التحديث يتيح أيضًا الحفاظ على اتساق الخلفيات والعناصر داخل المشهد. ويمكن للمستخدم الآن التحكم في البيئة البصرية عبر الحفاظ على بنية المكان والأجسام الموجودة فيه، وإعادة استخدام كائنات أو خلفيات أو خامات (Textures) بعينها عبر سلسلة من المشاهد.