شاهد ايضاً

بينترست تختبر ميزة ذكاء اصطناعي لتحويل كتالوجات المنتجات إلى كولاجات قابلة للشراء

أعلنت منصة Pinterest هذا الأسبوع عن بدء اختبار ميزة جديدة تعتمد على الذكاء الاصطناعي تُعرف باسم "الكولاج التلقائي - Auto-Collages"، والتي تتيح للمعلنين تحويل كتالوجات منتجاتهم تلقائيًا إلى كولاجات مرئية قابلة للتسوق.

OpenAI تطلق o3-pro: أقوى نموذج ذكاء اصطناعي للاستدلال حتى الآن

أعلنت شركة OpenAI عن إطلاق نموذج o3-pro، وهو نسخة محسّنة من نموذج الذكاء الاصطناعي o3 الذي تم الكشف عنه في وقت سابق من هذا العام. وتصف الشركة النموذج الجديد بأنه الأكثر تقدمًا حتى الآن، مع تحسينات كبيرة في قدرات الاستدلال والفهم العميق.

يوتيوب يدعم الاقتصاد الأمريكي بـ55 مليار دولار

كشفت منصة يوتيوب "YouTube" في تقرير جديد صدر يوم الثلاثاء عن التأثير الاقتصادي الكبير الذي أصبح يتمتع به اقتصاد صناع المحتوى، حيث أظهرت البيانات أن النظام الإبداعي ليوتيوب ساهم بأكثر من 55 مليار دولار في الناتج المحلي الإجمالي للولايات المتحدة خلال عام 2024، كما دعم أكثر من 490 ألف وظيفة بدوام كامل، وفقًا لتحليل أجرته مؤسسة Oxford Economics.

تأجيل إطلاق نموذج OpenAI المفتوح حتى نهاية الصيف

أعلن سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن تأجيل إصدار أول نموذج مفتوح من OpenAI منذ سنوات، مشيرًا إلى أن الإصدار لن يتم في يونيو كما كان مخططًا، بل سيتم إطلاقه في وقت لاحق من هذا الصيف. جاء ذلك عبر منشور على منصة X (تويتر سابقًا)، حيث أوضح أن التأخير يعود إلى تطورات غير متوقعة في فريق الأبحاث.

“OpenAI” تؤكد على عطل في شات جي بي تي ونموذج Sora

أعلنت شركة OpenAI عن حدوث عطل تقني في خدماتها، بما في ذلك روبوت الدردشة ChatGPT ونموذج Sora لتوليد مقاطع الفيديو، مما أثر على تجربة المستخدمين حول العالم.

OpenAI تستخدم GPT-4 لحل تحديات مراقبة المحتوى

تبقى مراقبة المحتوى على نطاق واسع لغزًا صعبًا، ويعتقد أوبن إيه آي أن GPT-4 قد يكون الحلا، مع بعض الشروط.

“أوبن إيه آي –OpenAI” واثقة من أن تكنولوجيتها لديها الإمكانية لمعالجة أحد أصعب مشكلات التكنولوجيا: مراقبة المحتوى على نطاق واسع. وفقًا لأوبن إيه آي، يتمتع GPT-4 بالقدرة على استبدال عشرات الآلاف من المشرفين البشريين مع الحفاظ تقريبًا على نفس الدقة وزيادة التسلسل. قد يؤدي ذلك إلى تفويض المهام الأكثر سمية والأكثر تعبًا عقليًا في عالم التكنولوجيا إلى الآلات.

في منشور مدونة حديث، كشفت أوبن إيه آي أنها قد استخدمت بالفعل GPT-4 لتطوير وتنقية السياسات المتعلقة بالمحتوى ووضع العلامات عليه واتخاذ القرارات بشأنها. صرحت ليليان وينغ، رئيسة أنظمة السلامة في أوبن إيه آي، “هذه خطوة جيدة حقًا في كيفية استخدام الذكاء الاصطناعي لحل قضايا العالم الحقيقي بطريقة تكون مفيدة للمجتمع”.

تسلط أوبن إيه آي الضوء على ثلاث فوائد رئيسية مقارنةً بالنهج التقليدي لمراقبة المحتوى.

- -

أولاً، يدعي أن البشر يفسرون السياسات بطرق مختلفة، بينما تحافظ الآلات على قراراتها متسقة. يمكن أن تكون هذه الإرشادات مطولة مثل الكتاب ومتغيرة باستمرار. بينما يتطلب من البشر تدريبًا كبيرًا للتعلم والتكيف، يُجادِرُ أوبن إيه آي بأنه يمكن لنماذج اللغة الكبيرة مثل GPT-4 تنفيذ سياسات جديدة على الفور.

ثانيًا، يمكن أن يساعد GPT-4 في تطوير سياسة جديدة خلال ساعات. عادةً ما يستغرق عملية صياغة ووضع العلامات وجمع الملاحظات وتنقيح السياسات أسابيع أو حتى شهورًا.

في الثالث، تتناول أوبن إيه آي رفاهية العاملين الذين يتعرضون باستمرار للمحتوى الضار، مثل مقاطع الفيديو التي تصور إيذاء الأطفال أو التعذيب.

بشكل طريف، قد يساهم أوبن إيه آي في حل مشكلة زادتها تكنولوجيتها الخاصة

على الرغم من مضي ما يقرب من عقدين من وجود وسائل التواصل الاجتماعي الحديثة وعدة سنوات إضافية من المجتمعات عبر الإنترنت، ما زالت مراقبة المحتوى تعتبر تحديًا صعبًا للمنصات الرقمية. تعتمد Meta وGoogle وTikTok على فرق كبيرة من المشرفين المكلفين بمراجعة المحتوى المثير للقلق وغالبًا ما يكون مروعًا. يتواجد معظم هؤلاء المشرفين في البلدان النامية ذات الأجور المنخفضة، ويعملون غالبًا لصالح شركات توظيف خارجية، ويعانون من مشاكل صحية نفسية نتيجة الرعاية الصحية النفسية المحدودة.

ومع ذلك، تعتمد أوبن إيه آي بنفسها بشدة على العمالة البشرية. تقوم الآلاف من الأفراد، والعديد منهم في بلدان أفريقية مثل كينيا، بتوضيح ووضع العلامات على المحتوى. يمكن أن يكون طبيعة المحتوى مزعجة، والعمل مرهق، والأجر غير كاف.

في حين تُقدِم أوبن إيه آي نهجها كمبتكر ومبتكر، تم استخدام الذكاء الاصطناعي في مراقبة المحتوى منذ سنوات. لم يتحقق رؤية مارك زوكربيرغ لنظام آلي متكامل بالكامل بعد، ولكن Meta تستخدم خوارزميات لمراقبة غالبية المحتوى الضار والغير قانوني. تعتمد منصات مثل YouTube وTikTok أيضًا على نظم مشابهة، مما يجعل تكنولوجيا أوبن إيه آي مثيرة للاهتمام بالنسبة للشركات الصغيرة التي لا تمتلك الموارد اللازمة لتطوير تكنولوجيا خاصة بها.

يعترف كل منصة بصراحة بأن تحقيق مراقبة مثالية للمحتوى على نطاق واسع أمر مستحيل. سواء كان الأمر يتعلق بالبشر أو الآلات، هناك أخطاء تحدث، وعلى الرغم من أن النسبة قد تكون منخفضة، إلا أن هناك ملايين المنشورات الضارة التي تنجو، بالإضافة إلى المحتوى البريء الذي يختفي أو يُحذف.

المنطقة الرمادية للمحتوى الخادع والخاطئ والعدائي الذي قد لا يكون غير قانوني يشكل تحديًا كبيرًا للأنظمة الآلية. حتى الخبراء البشريين يجدون صعوبة في تصنيف منشورات مثل هذه بدقة، وغالبًا ما تخطئ الآلات. تنطبق نفس المشكلة على السخرية، فضلاً عن الصور ومقاطع الفيديو التي توثق الجرائم أو عنف الشرطة.

قد تكون أوبن إيه آي موضوعة لمعالجة مشكلة أنها في الواقع ساهمت في تفاقمها. أدوات الذكاء الاصطناعي التي تولّدها مثل ChatGPT أو مبدع الصور DALL-E، قد جعلت من السهل بكثير إنشاء نشر المعلومات الخاطئة على نطاق واسع على وسائل التواصل الاجتماعي. على الرغم من أن أوبن إيه آي تعمل على تحسين دقة ChatGPT، فإن GPT-4 لا يزال يولّد أحيانًا أخبار كاذبة ومعلومات خاطئة.