البيت الأبيض يحذر عمالقة التكنولوجيا من الذكاء الاصطناعي
البيت الأبيض يحذر عمالقة التكنولوجيا من الذكاء الاصطناعي

أرسل البيت الأبيض تحذيراً بشأن الذكاء الاصطناعي إلى رؤساء شركات التكنولوجيا الأمريكية الكبرى.

جاء ذلك في بيان صادر عن البيت الأبيض. يتحمل الرؤساء التنفيذيون لشركات التكنولوجيا الكبرى مسؤولية “أخلاقية” لحماية المستخدمين من المخاطر الاجتماعية المحتملة المرتبطة بالذكاء الاصطناعي.

ودعت نائبة الرئيس الأمريكي كامالا هاريس رؤساء Google و Microsoft و Open AI و Anthropica إلى اجتماع ، في حين أن التنظيم المهم للغاية للذكاء الاصطناعي يظل في أيدي الشركات نفسها.

نقل هاريس إليهم مخاوف إدارة جو بايدن بشأن سباق هذه الشركات لتطوير تقنيات يمكن أن تسبب أضرارًا جسيمة للمجتمع.

قال هاريس في بيان: “بما أنني دخلت اليوم في شراكة مع قادة الشركات في طليعة ابتكار الذكاء الاصطناعي الأمريكي ، فإن القطاع الخاص يتحمل مسؤولية أخلاقية وأخلاقية وقانونية لضمان سلامة منتجاته”.

وأكدت نائبة الرئيس أنها عملت دائمًا على “حماية المستخدمين من المخاطر المرتبطة بالتكنولوجيا”.

وأشارت إلى أن الذكاء الاصطناعي لديه القدرة على “تحسين حياة الناس وحل المشكلات الكبرى التي تواجه المجتمع” ، ولكنه قادر أيضًا على “في نفس الوقت … زيادة مخاطر الأمن والسلامة بشكل كبير من خلال انتهاك الحقوق المدنية والخصوصية ، وتقويض ثقة الجمهور وإيمانه بالديمقراطية “.

قال هاريس: هي والرئيس جو بايدن ، اللذان ظهرا لفترة وجيزة ، يؤيدان “الترويج لقوانين جديدة محتملة ودعم تشريعات جديدة”.

وشددت على أن “الشركات يجب أن تلتزم بالقوانين القائمة لحماية الشعب الأمريكي” بالإضافة إلى ضمان سلامة منتجاتها.

حث بايدن الكونجرس في السابق على تمرير قوانين تفرض قيودًا أكثر صرامة على قطاع التكنولوجيا ، لكنه استبعد أن تذهب هذه الجهود بعيدًا في ضوء الانقسام السياسي في الولايات المتحدة.

اقرأ ايضا: سوناك بمناسبة تتويج الملك تشارلز: لم يكن بوسع دولة أخرى أن تفعل ذلك

بداية جيدة

جاء في نص دعوة الإدارة الأمريكية لقادة الشركات: “هدفنا هو مناقشة المخاطر الحالية وقصيرة المدى التي نتوقعها في التطورات في مجال الذكاء الاصطناعي بصراحة”.

وأضافت الإدارة أنها تود استكشاف “الخطوات التي من شأنها التخفيف من هذه المخاطر وطرق أخرى للعمل معًا للتأكد من استفادة الأمريكيين من التقدم في الذكاء الاصطناعي مع حمايتهم من المخاطر”.

وقال سام التمان الرئيس التنفيذي لشركة OpenAI بعد الاجتماع: إن محاولة التفوق على التكنولوجيا أمر “جيد بالطبع ، ستكون مشكلة ، لكنني أعتقد أنه يمكننا التعامل معها “.

يثير الذكاء الاصطناعي مخاوف جدية بشأن استخدامه واستغلال البيانات الشخصية.
أعربت العديد من البلدان عن رغبتها في وضع قواعد لاستخدام أدوات مثل GPT Chat.

وأثارت GBT Chat ، التي أطلقتها OpenAI في نوفمبر الماضي ، إعجاب المستخدمين بقدرتها على الإجابة بوضوح ودقة على الأسئلة الصعبة ، لا سيما حول كتابة الأغاني أو الترميز ، وحتى اجتياز الاختبارات.

بعد وقت قصير من إطلاقه ، تم حظر GBT Chat من العديد من المدارس والجامعات حول العالم بسبب مخاوف بشأن استخدامه كأداة غش في الامتحانات ، ونصحت مجموعة الشركات موظفيها بعدم استخدامه.

في مارس ، دعت لجنة من الخبراء إلى وقف تطوير أنظمة الذكاء الاصطناعي لإتاحة الوقت لها لتكون آمنة ، على الرغم من أن مثل هذه الخطوة غير مرجحة على نطاق واسع.
خلال اجتماع يوم الخميس ، دعا البيت الأبيض إلى اتخاذ خطوات جديدة “لدفع الابتكار الأمريكي المسؤول في مجال الذكاء الاصطناعي.

يتضمن ذلك تخصيص 140 مليون دولار لتوسيع أبحاث الذكاء الاصطناعي ، وتطوير نظام تسجيل للعمل مع الشركات الكبيرة “لتصحيح” بعض التناقضات في الذكاء الاصطناعي ،
لكن الخبراء قللوا من أهمية هذا الإعلان في وضع خطوات ملموسة.

قال ديفيد هاريس ، الأستاذ في كلية هاس للأعمال بجامعة كاليفورنيا في بيركلي: “لا تتوقع أن يؤدي ذلك كثيرًا إلى شيء ذي معنى ، لكنها بداية جيدة”.

المصدر

التعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *