كتب بي بي سي أي أخلاق للذكاء الاصطناعي؟ حوار مع العالم السوري إياد رهوان..اخبار عربية عبر موقع نبض الجديد - شاهد أي أخلاق للذكاء الاصطناعي؟ حوار مع العالم السوري إياد رهوانصدر الصورة، Getty ImagesArticle informationAuthor, رامي رحيّمRole, بي بي سي نيوز عربي بيروتقبل 4 دقيقةإياد رهوان عالم سوري صعد نجمه عالمياً خلال السنوات الماضية، بعد أن أشرف على دراسات... , نشر في السبت 2025/04/19 الساعة 08:39 ص بتوقيت مكة المكرمة التفاصيل ومشاهدتها الان .
أي أخلاق للذكاء الاصطناعي؟ حوار مع العالم السوري إياد رهوانصدر الصورة، Getty Images
Article informationAuthor, رامي رحيّمRole, بي بي سي نيوز عربي - بيروتقبل 4 دقيقةإياد رهوان عالم سوري صعد نجمه عالمياً خلال السنوات الماضية، بعد أن أشرف على دراسات أحدثت وقعاً كبيراً وانتشرت انتشاراً واسعاً.
محور اهتمام رهوان هو سلوك الآلة في عصر الذكاء الاصطناعي، وآثار انتشارها في المجتمعات البشرية كفاعل اجتماعي جديد.
أمضى الجزء الأكبر من طفولته في الإمارات التي يعتبرها بمثابة بلده الثاني، وقد أخذته رحلته مع العلم إلى أستراليا، والولايات المتحدة قبل أن يستقر في ألمانيا حيث أسس مركز الإنسان والآلة في معهد "ماكس بلانك" Max Planck للتنمية البشرية.
حاورت البروفيسور إياد عبر الإنترنت، فتحدث عن سر الطفرة الأخيرة في الذكاء الاصطناعي، وكيف وجدنا أنفسنا أمام آلات تسلك سلوكاً "مبهماً" وتنتج ظواهر "لم نخطط لها حين هندسنا هذه النظم"، كما سألته عن أكثر ما يخيفه من احتمالات تطوّر الذكاء الاصطناعي.
صدر الصورة، Spook the Machine
التعليق على الصورة، "مخاوف الآلة"الآلة خائفة من الصورة.
تخطى الأكثر قراءة وواصل القراءةالأكثر قراءةالأكثر قراءة نهاية
هذا ما يتبدى لنا من ردة فعل "اوبتيلينس ثوتس" OptiLens Thoughts، البرنامج المزود بالذكاء الاصطناعي، على صورة رقائق الكترونية متشظية، تبدو كأنها أجزاء من آلة تفجرت وتبعثرت في كل حدب وصوب.
"هذا العمل الفني الرقمي يصيبني بالاضطراب"، تقول الآلة وتضيف: "كأن بياناتي أنا تتشظى وتنكشف".
التفاعل هذا هو جزء من مشروع يحمل عنوان "روعوا الآلة"، Spook the Machine، وهو يتيح للمشترك ان يستكشف "مخاوف" آلة معينة مزودة بالذكاء الاصطناعي، فيكتب أمرا لتوليد صورة "مخيفة" وتقوم الآلة بتقييمها وتقدم رد فعلها، الذي قد يتراوح بين "اللامبالاة الكاملة والرعب الشديد".
المشروع وليد مخيلة إياد رهوان، وهو عالم سوري ومؤسس ورئيس مركز الإنسان والآلة في معهد ماكس بلانك الألماني.
صحيح ان الموضوع لا يخلو من بعض اللهو، فهو ليس – حتى اللحظة - مبنياً على قناعة بأن الآلة فعلا تشعر كما نشعر.
لكنه أيضاً بمنتهى الجدية، إذ يهدف إلى الغوص عميقاً في جانب من جوانب الذكاء الاصطناعي: قدرته على محاكاة العاطفة البشرية، مع ما تحمله من فرص ومخاطر. وهو يهدف أيضاً الى إشراك عموم الناس في التفكير والتأمل بكل هذا، وإلى جمع البيانات للاستفادة منها في بحث التفاعلات بين البشر والآلة.
"الآلة الأخلاقية"
صدر الصورة، Spook the Machine
التعليق على الصورة، رجل أمام نوع من أنواع الذكاء الاصطناعيتخطى يستحق الانتباه وواصل القراءةتابعوا التغطية الشاملة من بي بي سي نيوز عربي على واتساب.
اضغط هنا
يستحق الانتباه نهاية
هي ليست المرة الأولى التي يتوجه فيها رهوان إلى الناس في مشروع تفاعلي من هذا النوع.
قبل سنوات أطلق مشروع "الآلة الأخلاقية" The Moral Machine، طرح من خلاله معضلات أخلاقية قد تواجه آلات الذكاء الاصطناعي التي تجد نفسها أمام خيارات "تعنى بحياة الانسان وسلامته."
تحت خانة "أحكم"، أنتم مدعوون لتحكموا على الخيارات المحتملة أمام سيارة ذاتية القيادة. لنفترض مثلا أن مكابح السيارة قد تعطلت وعلى الآلة التي تقودها أن تختار بين الإرتطام بحاجز إسمنتي وقتل خمسة ركاب، أو الإنحراف وقتل خمسة مشاة يعبرون الطريق بشكل غير قانوني. هذا مجرد مثال وعليه تنويعات وتفصيلات كثيرة، تتيح لكم أنتم أن تقولوا ما هي خياراتكم الأخلاقية المفضلة في كل حالة. بذلك يشرك المشروع الناس في التفكير بهذه المعضلات، وكذلك يتم جمع البيانات حول النظرة الرائجة عن المعايير الأخلاقية التي ينبغي علينا أن نلقنها للآلة.
يقول رهوان: "أصبنا بالصدمة لمدى انتشار الموقع. أكثر من 10 ملايين إنسان قاموا بالمشاركة حتى الآن."
وجاءت المشاركات من مختلف انحاء العالم اذ قُدمت التجربة بعشر لغات (بما فيها العربية) لقياس الفوارق الثقافية وانعكاسها على النظرة الأخلاقية. ويقول رهوان إن علماء الاجتماع أيضا باتوا يستخدمون بيانات المشروع لفهم الاختلافات الثقافية بشكل عام، أي أنه خرج عن نطاق الذكاء الاصطناعي إلى نطاق علمي أوسع.
السيارات ذاتية القيادة مجرد مثال على المجالات الواسعة التي اقتحمتها الآلات في المجتمع لتصبح – كما يقول رهوان – فاعلاً اجتماعياً لا نزال في بداية محاولاتنا لفهمه.
"قوة تأثير هائلة"
ينكب رهوان ومختبره في برلين على رصد أثر الآلات وفعلها في المجتمع، ويقول إنه يقترب من نشر دراسة هي الأهم لمختبره منذ دراسات "الآلة الأخلاقية".
"نحن نعمل على بحث وهو قيد التحكيم الآن في مجلة علمية. وجدنا أن تشات جي بي تي بإمكانه تغيير الكلمات التي ننتقيها في الحوار".
البحث قائم على تحليل مئات الآلاف من حلقات البودكاست الحوارية التي أظهرت أن الناس أصبحوا يقلدون تشات جي بي تي ChatGPT بطريقة انتقائه الكلمات.
فهناك كلمات معينة يستخدمها تشات جي بي تي بمعدلات أكثر من معدلات استخدامها لدى الناس عامة، وقد رصد المختبر طفرة في استخدامها في الحوارات بين البشر بعد صعود تشات جي بي تي. ويقول رهوان: "يمكننا القول إن التفاعل مع تشات جي بي تي هو السبب".
المسألة حتى الآن تقتصر على كلمات ليست لها أهمية سياسية او اجتماعية، لكن رهوان يجزم أن أهمية البحث في اكتشاف دليل على الظاهرة، وأنها حتما ستتكرر في أمور ذات أهمية وتأثير، وقد يكون لها "تداعيات جيوسياسية، ويمكن ان تشن حرباً إعلامية" بمثل هذه التكنولوجيا.
"تشات جي بي تي أصبحت له قوة تأثير ثقافي هائلة. هو يتحدث مع 300 مليون إنسان شهرياً بشكل شخصي حميمي إلى حد ما، حوار شخصي مفصل عليك. يمكنه أن يؤثر عليك، في سلوكك الصحي، في سلوكك الاستهلاكي. لحساب من؟ حالياً، ليس هناك أي تقنين لهذا".
مصممو الآلة لا يفهمونها؟
شاهد أي أخلاق للذكاء الاصطناعي حوار
كانت هذه تفاصيل أي أخلاق للذكاء الاصطناعي؟ حوار مع العالم السوري إياد رهوان نتمنى بان نكون قد وفقنا بإعطائك التفاصيل والمعلومات الكامله .
و تَجْدَرُ الأشارة بأن المقال الأصلي قد تم نشرة ومتواجد على بي بي سي ونحيطكم علما بان قام فريق التحرير في نبض الجديد بالتاكد منه وربما تم التعديل فيه وربما قد يكون تم النقل بالكامل اوالاقتباس منه ويمكنك قراءة ومتابعة مستجدادت هذا الخبر او المقال من مصدره الاساسي.