اقتصاد

يخبر البيت الأبيض الرؤساء التنفيذيين للتكنولوجيا أن لديهم “واجبًا أخلاقيًا” تجاه الذكاء الاصطناعي

تم إخبار المديرين التنفيذيين للتكنولوجيا في الولايات المتحدة أن عليهم واجبًا “أخلاقيًا” لضمان أن الذكاء الاصطناعي لا يضر بالمجتمع خلال اجتماع في البيت الأبيض.

حضر الرؤساء التنفيذيون لشركة Google و Microsoft و OpenAI و Anthropic الاجتماع الذي استمر ساعتين حول تطوير وتنظيم الذكاء الاصطناعي يوم الخميس بدعوة من نائبة الرئيس الأمريكي كامالا هاريس.

الرئيس الأمريكي جو بايدن ، الذي حضر الاجتماع لفترة وجيزة ، أخبر الرؤساء التنفيذيين أن العمل الذي يقومون به ينطوي على “إمكانات هائلة وخطر هائل”.

وقال بايدن ، وفقا لمقطع فيديو نشره البيت الأبيض في وقت لاحق: “أعلم أنك تفهم ذلك”.

“وآمل أن تتمكن من تثقيفنا بشأن ما تعتقد أنه في أمس الحاجة إليه لحماية المجتمع بالإضافة إلى التقدم.”

وقال هاريس في بيان بعد الاجتماع إن شركات التكنولوجيا “يجب أن تمتثل للقوانين القائمة لحماية الشعب الأمريكي” و “ضمان سلامة وأمن منتجاتها”.

وقال البيت الأبيض إن الاجتماع تضمن “مناقشة صريحة وبناءة” حول الحاجة إلى أن تكون شركات التكنولوجيا أكثر شفافية مع الحكومة بشأن تكنولوجيا الذكاء الاصطناعي الخاصة بها وكذلك الحاجة إلى ضمان سلامة هذه المنتجات وحمايتها من الهجمات الضارة. .

وصرح الرئيس التنفيذي لشركة أوبن إيه آي ، سام التمان ، للصحفيين بعد الاجتماع بأنه “من المدهش أننا في نفس الصفحة بشأن ما يجب أن يحدث”.

اقرأ ايضاً
مجلس أمناء جائزة جامعة الأمير محمد بن فهد يعقد اجتماعه الأول

جاء الاجتماع في الوقت الذي أعلنت فيه إدارة بايدن عن استثمار بقيمة 140 مليون دولار في سبعة معاهد بحثية جديدة للذكاء الاصطناعي ، وإنشاء لجنة مستقلة لإجراء التقييمات العامة لأنظمة الذكاء الاصطناعي الحالية وخطط المبادئ التوجيهية بشأن استخدام الحكومة الفيدرالية للذكاء الاصطناعي.

أدت الوتيرة المذهلة للتقدم في الذكاء الاصطناعي إلى إثارة الإثارة في عالم التكنولوجيا بالإضافة إلى مخاوف بشأن الضرر الاجتماعي وإمكانية خروج التكنولوجيا في النهاية عن سيطرة المطورين.

على الرغم من كونه في مهده ، فقد تورط الذكاء الاصطناعي بالفعل في العديد من الخلافات ، من الأخبار المزيفة والمواد الإباحية غير التوافقية إلى قضية رجل بلجيكي انتحر بعد التشجيع من روبوت محادثة مدعوم من الذكاء الاصطناعي.

في استطلاع أجرته جامعة ستانفورد العام الماضي على 327 خبيرًا في معالجة اللغات الطبيعية ، قال أكثر من ثلث الباحثين إنهم يعتقدون أن الذكاء الاصطناعي يمكن أن يؤدي إلى “كارثة على المستوى النووي”.

في مارس ، كان الرئيس التنفيذي لشركة Tesla Elon Musk والمؤسس المشارك لشركة Apple Steve Wozniak من بين 1300 موقّع على خطاب مفتوح يدعو إلى التوقف لمدة ستة أشهر لتدريب أنظمة الذكاء الاصطناعي حيث “يجب تطوير أنظمة الذكاء الاصطناعي القوية فقط بمجرد أن نكون واثقين من أن تأثيراتها ستحدث” كن إيجابيًا وستكون مخاطرها قابلة للإدارة “.

المصدر

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى