كتب صحيفة الوئام تباين في نتائج اختبارات نموذج o3 يثير تساؤلات حول شفافية OpenAI..اخبار عربية عبر موقع نبض الجديد - شاهد أثار تباين ملحوظ بين نتائج اختبارات الأداء التي أعلنتها شركة OpenAI لنموذج الذكاء الاصطناعي o3، وتلك التي توصلت إليها جهات بحثية مستقلة، تساؤلات حول شفافية الشركة وممارساتها في تقييم النماذج.ففي ديسمبر الماضي، كشفت OpenAI عن أن نموذجها الجديد o3... , نشر في الأثنين 2025/04/21 الساعة 02:52 ص بتوقيت مكة المكرمة التفاصيل ومشاهدتها الان .
أثار تباين ملحوظ بين نتائج اختبارات الأداء التي أعلنتها شركة OpenAI لنموذج الذكاء الاصطناعي o3، وتلك التي توصلت إليها جهات بحثية مستقلة، تساؤلات حول شفافية الشركة وممارساتها في تقييم النماذج.
ففي ديسمبر الماضي، كشفت OpenAI عن أن نموذجها الجديد o3 تمكن من حل أكثر من ربع مسائل Frontier Math، وهو اختبار رياضي عالي التعقيد يستخدم لقياس قدرات النماذج المتقدمة، في حين أن أفضل النماذج الأخرى لم تتجاوز نسبة 2% في نفس الاختبار. وقال مارك تشن، مدير الأبحاث في OpenAI، خلال بث مباشر: “نحن نرى داخليًا، مع o3 في إعدادات استخدام حوسبة مكثفة، أنه قادر على تجاوز نسبة 25%”.
لكن النتائج المستقلة التي نشرتها مؤسسة Epoch AI، وهي الجهة المطورة لاختبار Frontier Math، أظهرت أن نموذج o3 لم يتجاوز نسبة 10%، وهو ما يشير إلى فجوة واضحة بين الادعاءات الرسمية والنتائج المستقلة.
ورغم هذا الفارق، لا تتهم Epoch شركة OpenAI بالتضليل صراحةً، بل أوضحت أن الفروقات قد تعود إلى استخدام OpenAI إصدارًا مختلفًا أو أكثر تطورًا من النموذج في اختبارات ديسمبر، أو ربما استُخدمت مجموعة مختلفة من المسائل ضمن Frontier Math، إلى جانب احتمال توظيف موارد حسابية أكبر في الاختبارات الداخلية.
وفي هذا السياق، أكدت مؤسسة ARC Prize، التي اختبرت نسخة ما قبل الإطلاق من o3، أن النسخة العامة المطروحة للمستخدمين “مختلفة”، وتم إعدادها لتناسب الاستخدامات التفاعلية مثل الدردشة، وهو ما يتماشى مع ملاحظات Epoch. وأضافت ARC أن جميع نسخ o3 المطروحة حاليًا أقل من حيث القوة الحوسبية مقارنة بالنسخة التي أجريت عليها الاختبارات الأولية.
وبالرغم من هذا الجدل، فإن OpenAI أشارت إلى أن نماذجها الأحدث، مثل o3-mini-high وo4-mini، تتفوق على o3 في اختبار Frontier Math، مع خطط لإطلاق نسخة أكثر تطورًا تُعرف بـ o3-pro خلال الأسابيع المقبلة.
لكن هذه الواقعة تسلط الضوء مجددًا على أن نتائج اختبارات النماذج، خاصة تلك الصادرة عن الشركات المطورة ذاتها، ينبغي التعامل معها بحذر. فسباق التنافس في سوق الذكاء الاصطناعي دفع العديد من الشركات إلى نشر نتائج أداء قد تكون انتقائية أو غير ممثلة بدقة للواقع.
ويُذكر أن صناعة الذكاء الاصطناعي شهدت في الأشهر الأخيرة حالات مشابهة؛ منها انتقادات وُجّهت إلى مؤسسة Epoch لتأخرها في الكشف عن تمويل تلقّته من OpenAI، فضلًا عن اتهامات لشركة xAI التي يملكها إيلون ماسك بنشر رسوم بيانية مضللة حول أداء نموذجها Grok 3، واعتراف شركة Meta مؤخرًا بأن الأرقام التي أعلنتها تخص نسخة مختلفة من نموذجها لم تُتح بعد للمطورين.
شاهد تباين في نتائج اختبارات نموذج o3
كانت هذه تفاصيل تباين في نتائج اختبارات نموذج o3 يثير تساؤلات حول شفافية OpenAI نتمنى بان نكون قد وفقنا بإعطائك التفاصيل والمعلومات الكامله .
و تَجْدَرُ الأشارة بأن المقال الأصلي قد تم نشرة ومتواجد على صحيفة الوئام ونحيطكم علما بان قام فريق التحرير في نبض الجديد بالتاكد منه وربما تم التعديل فيه وربما قد يكون تم النقل بالكامل اوالاقتباس منه ويمكنك قراءة ومتابعة مستجدادت هذا الخبر او المقال من مصدره الاساسي.