كتب الغد برس لضمان الهيمنة الأميركية: شركات الذكاء الاصطناعي تتراجع عن تعهدات السلامة..اخبار عربية عبر موقع نبض الجديد - شاهد الغد برس متابعة بنت الشركات التي تتسابق للسيطرة على مستقبل الذكاء الاصطناعي تقنياتها وأعمالها من خلال تتبعك، وبياناتك، بعناية. لكنها لا تفضل أن تتابعها أنت، وتحديداً لا تفضل أن يتابع المستخدمون الطرق التي تُعدّل بها التزاماتها الأخلاقية... , نشر في الأربعاء 2025/03/26 الساعة 07:51 م بتوقيت مكة المكرمة التفاصيل ومشاهدتها الان .
الغد برس/ متابعة «بنت الشركات التي تتسابق للسيطرة على مستقبل الذكاء الاصطناعي تقنياتها وأعمالها من خلال تتبعك، وبياناتك، بعناية. لكنها لا تفضل أن تتابعها أنت، وتحديداً لا تفضل أن يتابع المستخدمون الطرق التي تُعدّل بها التزاماتها الأخلاقية والخصوصية الطوعية - وهي بعض الضمانات القليلة التي تهدف إلى الحفاظ على مستقبل الذكاء الاصطناعي آمناً»، كما كتبت جاكي سنو(*). الهيمنة الأميركية تفكك حواجز السلامة مع سعي إدارة الرئيس ترمب الدؤوب لتفكيك حواجز السلامة لتعزيز «الهيمنة الأميركية» في مجال الذكاء الاصطناعي، وتفكيك الشركات لفرق السلامة التابعة لها، وقع على عاتق منظمة غير ربحية صغيرة ذات موارد محدودة مسؤولية تتبع كيفية تعديل هذه الشركات التي تبلغ قيمتها تريليونات الدولارات لسياساتها والوفاء بالتزاماتها الأخلاقية. مشروع يراقب 16 شركة رائدة أصبح تايلر جونستون ومجموعته، مشروع ميداس Midas Project، بمثابة «إدارة إطفاء» رقمية تعمل بمفردها، في محاولة لرصد «غابة من الحرائق المحتملة». وأُطلق مشروع «برج مراقبة سلامة الذكاء الاصطناعي» AI Safety Watchtower التابع للمنظمة غير الربحية في منتصف عام 2024، وهو يتتبع الآن 16 شركة - بما في ذلك «أوبن إيه آي غوغل» و«أنثروبيك» - لمراقبة مئات من وثائق السياسات وصفحات الويب بحثاً عن أي تغييرات في عملها. يقول جونستون: «لو كان لدى كل شركة ذكاء اصطناعي، سجل بالتغييرات، لما كان هذا العمل ضرورياً. بل كان سيمثل أقصى درجات الشفافية. ولكن بدلاً من ذلك، يقع على عاتق المنظمات غير الربحية والصحافيين مسؤولية مراقبة هذا الأمر، ولا أحد يمتلك المعدات الكافية لالتقاط كل شيء». إزالة معايير سلامة ومسؤولية الذكاء الاصطناعي تأتي مخاوف جونستون بشأن التزامات السلامة المتخلى عنها في الوقت الذي تعمل فيه إدارة ترمب بنشاط على تفكيك حواجز سلامة الذكاء الاصطناعي. في يومه الثاني في منصبه هذه الفترة، وقّع ترمب أمراً تنفيذياً يلغي أمر الرئيس السابق بايدن بشأن سلامة الذكاء الاصطناعي لعام 2023، ويستبدل به أمراً يركز على «الهيمنة الأميركية» في مجال الذكاء الاصطناعي. وفي مارس (آذار)، أصدر المعهد الوطني للمعايير والتكنولوجيا توجيهات جديدة للعلماء في معهد سلامة الذكاء الاصطناعي، حذفت فيها عبارة «سلامة الذكاء الاصطناعي، ومسؤوليته، وعدالة الذكاء الاصطناعي». في حين اتخذت ولايات مختلفة خطوات لإقرار لوائح تنظيمية للذكاء الاصطناعي، وقُدّمت مشاريع قوانين في الكونغرس الأميركي، لا توجد حتى الآن قواعد اتحادية تُنظّم استخدام هذه التقنية تحديداً. وفي الأسابيع الأخيرة، طلب مكتب الرئيس ترمب لسياسة العلوم والتكنولوجيا تعليقات عامة من الشركات والأكاديميين وغيرهم بشأن «خطة عمل الذكاء الاصطناعي» المُرتقبة؛ ومن غير المُستغرب أن يُطالب وادي السيليكون بلمسة تنظيمية مُبسّطة. ومع نحو 1500 مُتابع عبر حسابين على موقع «إكس»، يُدير جونستون مشروع ميداس بدوام كامل. وتُدار المجموعة بميزانية محدودة، لذا فهو يُجري الكثير من الأعمال بنفسه حالياً، بمساعدة بعض المتطوعين. لا يُدعم جونستون بمليارات الدولارات من رأس المال الاستثماري أو التمويل الحكومي، ويعتمد فقط على العزيمة وأداة بسيطة لاستخراج بيانات الإنترنت تكتشف متى تُلغي الشركات بهدوء وعودها بعدم بناء روبوتات قاتلة أو تمكين تطوير أسلحة بيولوجية. رصد 30 تغييراً في المعايير حتى الآن، وثّقت منظمة «برج المراقبة» نحو 30 تغييراً مهماً، مُصنّفةً إياها حسب الوسوم: رئيس، طفيف، وغير مُعلن. أولها هو التعديل «الطفيف» الذي أجرته شركة «أوبن إيه آي» على «قيمها الأساسية» في أكتوبر (تشرين الأول) 2023 ـ إذ أزالت مبدأ مثل «التوجهات المستخلصة من التأثيرات» impact - driven الخاصة بالذكاء الاصطناعي، والتي كانت تُؤكد على أن الموظفين «يهتمون بشدة بالآثار الواقعية» (للأدوات الذكية)، واستبدلت بها قيماً مثل «التركيز على الذكاء الاصطناعي العام» AGI focus. ورصدت منظمة برج مراقبة الذكاء الاصطناعي تغييراً «طفيفاً» آخر في السياسة من شركة «ميتا» في يونيو (حزيران) 2024، عندما أوضحت صراحةً أنها تستطيع استخدام بيانات من «فيسبوك» و«واتساب» و«إنستغرام» لتغيير نموذجها. كما أشارت منظمة برج المراقبة إلى تغيير «كبير» أجرته «غوغل» الشهر الماضي عندما أصدرت الشركة نسخة جديدة من إطار عمل السلامة الجبهوية Frontier Safety Framework. وكشف تحليل جونستون عن تعديلات مثيرة للقلق: فقد أُزيلت مخاطر استقلالية النموذج واستُبدل بها «مخاطر التوافق» غير المحددة بوضوح، والجدير بالذكر أن الشركة أضافت صياغةً تُشير إلى أنها لن تتبع إطار عملها، إلا إذا اعتمد المنافسون تدابير مماثلة. في بعض الأحيان، استجابت الشركات لتنبيهات جونستون. لا يزال وضع هذه الالتزامات في ظل إدارة ترمب غير واضح. كانت هذه الالتزامات وعوداً مستقلة قدمتها الشركات للبيت الأبيض في عهد بايدن وللجمهور بشأن إدارة مخاطر الذكاء الاصطناعي، مما يعني أنها لا ينبغي أن تتأثر بالأمر التنفيذي لترمب الذي يلغي سياسات بايدن المتعلقة بالذكاء الاصطناعي. أكد العديد من الشركات، بما في ذلك «نيفيديا» وغيرها، أنها لا تزال ملتزمة بالالتزامات بعد الانتخابات، ووفقاً لموقع «FedScoop» أعادت «أنثروبيك» الإشارة إلى موقعها الإلكتروني في النهاية، لكنها أضافت إخلاء مسؤولية مثير للاهتمام: «ورغم أن هذه الالتزامات المحددة لم تعد سارية رسمياً في ظل إدارة الرئيس ترمب، فإن مؤسستنا لا تزال ملتزمة بجميع هذه المبادئ». تراجع الشركات: الدخول إلى الميدان العسكري إنّ التحول الأهم الذي وثّقه جونستون هو تراجع شركات الذكاء الاصطناعي عن مواقفها السابقة تجاه الدخول إلى الميدان العسكري. ووفقاً لجونستون، كان تراجع «أوبن إيه آي» محسوباً بشكل خاص -فقد صُمّم في البداية على أنه توجه للمساعدة في منع انتحار المحاربين القدامى ودعم الأمن السيبراني للبنتاغون. ووصفت الشركة النقاد بقسوة القلب لتشكيكهم في هذا العمل، ولكن بحلول نوفمبر (تشرين الثاني) 2024، كانت لشركةشاهد لضمان الهيمنة الأميركية شركات
كانت هذه تفاصيل لضمان الهيمنة الأميركية: شركات الذكاء الاصطناعي تتراجع عن تعهدات السلامة نتمنى بان نكون قد وفقنا بإعطائك التفاصيل والمعلومات الكامله .
و تَجْدَرُ الأشارة بأن المقال الأصلي قد تم نشرة ومتواجد على الغد برس ونحيطكم علما بان قام فريق التحرير في نبض الجديد بالتاكد منه وربما تم التعديل فيه وربما قد يكون تم النقل بالكامل اوالاقتباس منه ويمكنك قراءة ومتابعة مستجدادت هذا الخبر او المقال من مصدره الاساسي.