أطلقت شركة Adobe إمكانات إنشاء الفيديو لمنصة Firefly AI الخاصة بها قبل حدث Adobe MAX يوم الاثنين. بدءًا من اليوم، يمكن للمستخدمين اختبار منشئ الفيديو Firefly لأول مرة على موقع Adobe الإلكتروني، أو تجربة ميزة الفيديو الجديدة المدعومة بالذكاء الاصطناعي، Geneative Extend، في تطبيق Premiere Pro beta.
على موقع Firefly، يمكن للمستخدمين تجربة نموذج تحويل النص إلى فيديو أو نموذج تحويل الصورة إلى فيديو، وكلاهما ينتج ما يصل إلى خمس ثوانٍ من الفيديو الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. (الإصدار التجريبي من الويب مجاني للاستخدام، ولكن من المحتمل أن يكون له حدود للمعدلات.)
تقول شركة Adobe إنها قامت بتدريب Firefly لإنشاء محتوى متحرك ووسائط صور واقعية، اعتمادًا على مواصفات المطالبة. Firefly قادر أيضًا على إنتاج مقاطع فيديو تحتوي على نص، من الناحية النظرية على الأقل، وهو أمر عانت مولدات صور الذكاء الاصطناعي تاريخيًا من أجل إنتاجه. يتضمن تطبيق الويب Firefly video إعدادات لتبديل تحركات الكاميرا وكثافة حركة الكاميرا وزاويتها وحجم اللقطة.
في تطبيق Premiere Pro التجريبي، يمكن للمستخدمين تجربة ميزة Firefly’s Geneative Extend لتمديد مقاطع الفيديو لمدة تصل إلى ثانيتين. تم تصميم هذه الميزة لتوليد إيقاع إضافي في المشهد، واستمرار حركة الكاميرا وحركات الهدف. سيتم أيضًا توسيع صوت الخلفية – وهو أول تذوق للجمهور لنموذج الصوت AI الذي تعمل عليه شركة Adobe بهدوء. ومع ذلك، لن يقوم موسع الصوت في الخلفية بإعادة إنشاء الأصوات أو الموسيقى لتجنب دعاوى حقوق الطبع والنشر من شركات التسجيل.
في العروض التوضيحية التي تمت مشاركتها مع TechCrunch قبل الإطلاق، أنتجت ميزة Geneative Extend لـ Firefly مقاطع فيديو أكثر إثارة للإعجاب من نموذج تحويل النص إلى فيديو، وبدت أكثر عملية. لا يتمتع نموذج تحويل النص إلى فيديو أو صورة إلى فيديو بنفس عامل التألق أو الإبهار الذي يتمتع به منافسو Adobe في فيديو الذكاء الاصطناعي، مثل Gen-3 Alpha من Runway أو Sora من OpenAI (على الرغم من أنه من المسلم به أن الأخير لم يفعل ذلك بعد). سفينة). تقول شركة Adobe إنها تركز بشكل أكبر على ميزات تحرير الذكاء الاصطناعي بدلاً من إنشاء مقاطع فيديو مدعومة بالذكاء الاصطناعي، ومن المرجح أن ترضي قاعدة مستخدميها.
يجب أن تحقق ميزات Adobe AI توازنًا دقيقًا مع جمهورها المبدع. إنها تحاول الريادة في مساحة مزدحمة من الشركات الناشئة في مجال الذكاء الاصطناعي وشركات التكنولوجيا التي تعرض نماذج رائعة للذكاء الاصطناعي. من ناحية أخرى، لا يشعر الكثير من المبدعين بالسعادة لأن ميزات الذكاء الاصطناعي قد تحل قريبًا محل العمل الذي قاموا به باستخدام الماوس ولوحة المفاتيح والقلم لعقود من الزمن. لهذا السبب، تستخدم ميزة فيديو Firefly الأولى من Adobe، Geneative Extend، الذكاء الاصطناعي لحل مشكلة موجودة لمحرري الفيديو – المقطع الخاص بك ليس طويلًا بما يكفي – بدلاً من إنشاء فيديو جديد من البداية.
قال ألكساندرو كوستين، نائب رئيس شركة Adobe للذكاء الاصطناعي التوليدي، في مقابلة مع TechCrunch: “جمهورنا هو الجمهور الأكثر مثالية على وجه الأرض”. “إنهم يريدون أن يساعدهم الذكاء الاصطناعي في توسيع الأصول التي لديهم، أو إنشاء أشكال مختلفة منها، أو تحريرها، مقابل إنشاء أصول جديدة. لذا بالنسبة لنا، من المهم جدًا أن نقوم بالتحرير التوليدي أولاً، ومن ثم الإنشاء التوليدي.
نماذج فيديو على مستوى الإنتاج تجعل عملية التحرير أسهل – هذه هي الوصفة التي حققت Adobe نجاحًا مبكرًا من خلال نموذج صورة Firefly في Photoshop. قال المسؤولون التنفيذيون في شركة Adobe سابقًا إن ميزة التعبئة التوليدية في Photoshop هي واحدة من الميزات الجديدة الأكثر استخدامًا في العقد الماضي، ويرجع ذلك إلى حد كبير إلى أنها تكمل وتسرع سير العمل الحالي. وتأمل الشركة أن تتمكن من تكرار هذا النجاح من خلال الفيديو.
تحاول شركة Adobe أن تكون منتبهة للمبدعين، حيث يقال إنها تدفع للمصورين والفنانين 3 دولارات مقابل كل دقيقة من الفيديو يرسلونها لتدريب نموذج Firefly AI. ومع ذلك، لا يزال العديد من المبدعين حذرين من استخدام أدوات الذكاء الاصطناعي، أو يخشون أن يجعلها قديمة الطراز. (أعلنت شركة Adobe يوم الاثنين أيضًا عن أدوات الذكاء الاصطناعي للمعلنين لإنشاء المحتوى تلقائيًا).
يخبر كوستين هؤلاء المبدعين المعنيين أن أدوات الذكاء الاصطناعي التوليدية ستخلق المزيد من الطلب على عملهم، وليس أقل: “إذا فكرت في احتياجات الشركات التي ترغب في إنشاء محتوى فردي ومخصص للغاية لأي مستخدم يتفاعل معها، فستجد أن هذا الطلب لا حصر له.”
يقول قائد الذكاء الاصطناعي في Adobe إنه يجب على الناس التفكير في كيفية استفادة المبدعين من الثورات التكنولوجية الأخرى، مقارنة ظهور أدوات الذكاء الاصطناعي بالنشر الرقمي والتصوير الرقمي. ويشير إلى كيف كان يُنظر إلى هذه الاكتشافات في الأصل على أنها تهديد، ويقول إنه إذا رفض المبدعون الذكاء الاصطناعي، فسوف يواجهون وقتًا عصيبًا.
قال كوستين: “استفد من القدرات الإبداعية للارتقاء بالمستوى والارتقاء بالمهارات لتصبح محترفًا مبدعًا يمكنه إنشاء محتوى أكثر 100 مرة باستخدام هذه الأدوات”. “الحاجة إلى المحتوى موجودة، والآن يمكنك القيام بذلك دون التضحية بحياتك. احتضان التكنولوجيا. هذه هي المعرفة الرقمية الجديدة.”
سيقوم Firefly أيضًا بإدراج العلامات المائية “التي تم إنشاؤها بواسطة الذكاء الاصطناعي” تلقائيًا في البيانات الوصفية لمقاطع الفيديو التي تم إنشاؤها بهذه الطريقة. يستخدم Meta أدوات التعريف على Instagram وFacebook لتصنيف الوسائط باستخدام هذه التصنيفات على أنها تم إنشاؤها بواسطة الذكاء الاصطناعي. الفكرة هي أن المنصات أو الأفراد يمكنهم استخدام أدوات تعريف الذكاء الاصطناعي مثل هذه، طالما أن المحتوى يحتوي على العلامات المائية المناسبة للبيانات الوصفية، لتحديد ما هو أصلي وما هو غير أصلي. ومع ذلك، لن يتم تشغيل مقاطع فيديو Adobe بشكل افتراضي مرئي توضح الملصقات أنها تم إنشاؤها بواسطة الذكاء الاصطناعي بطريقة يسهل على البشر قراءتها.
قامت Adobe بتصميم Firefly خصيصًا لإنشاء وسائط “آمنة تجاريًا”. وتقول الشركة إنها لم تدرب Firefly على الصور ومقاطع الفيديو بما في ذلك المخدرات أو العري أو العنف أو الشخصيات السياسية أو المواد المحمية بحقوق الطبع والنشر. من الناحية النظرية، يجب أن يعني هذا أن منشئ فيديو Firefly لن يقوم بإنشاء مقاطع فيديو “غير آمنة”. الآن بعد أن أصبح لدى الإنترنت حرية الوصول إلى نموذج فيديو Firefly، سنرى ما إذا كان هذا صحيحًا.