منوعات

إيلون ماسك و1000 خبير يدعون لوقف تطوير أنظمة الذكاء الاصطناعي لهذه الأسباب

إيلون ماسك و1000 خبير يدعون لوقف تطوير أنظمة الذكاء الاصطناعي لهذه الأسباب

يسعدنا ان نستعرض معكم تفاصيل خبر إيلون ماسك و1000 خبير يدعون لوقف تطوير أنظمة الذكاء الاصطناعي لهذه الأسباب ، والأن يمكنكم متابعة التفاصيل أدناه.

وحذر الخطاب الصادر عن معهد “Future Of Life” غير الربحي، ووقعه أكثر من 1000 شخص، من المخاطر المحتملة على المجتمع، والتي قد تتسبب بها أنظمة الذكاء الاصطناعي، على شكل اضطرابات اقتصادية وسياسية.

وجاء في نص الخطاب: “أنظمة الذكاء الاصطناعي ذات الذكاء التنافسي البشري، يمكن أن تشكّل مخاطر كبيرة على المجتمع والإنسانية. يجب تطوير أنظمة الذكاء الاصطناعي القوية فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية، ومخاطرها قابلة للإدارة والتحكم”.

وشدد الخطاب على وقف “السباق الخطير” لتطوير أنظمة أقوى من “تشات جي بي تي-4” التابع لشركة OpenAI.

واختتم الخطاب بالقول: “يجب على مختبرات الذكاء الاصطناعي والخبراء المستقلين استخدام هذا التوقف المؤقت لتطوير وتنفيذ مجموعة من بروتوكولات السلامة المشتركة لتصميم وتطوير ذكاء اصطناعي متقدم قابل للإدارة بدقة، والإشراف عليها من قبل خبراء مستقلين. يجب أن تضمن هذه البروتوكولات أن الأنظمة التي تلتزم بها آمنة بما لا يدع مجالا للشك”، وفقما نقلت شبكة “سكاي نيوز” البريطانية.

وجاء تحذير ماسك بعد قيام” يوروبول”، وهي وكالة تطبيق القانون الأوربية، يوم الإثنين، بالتحذير من إساءة استخدام أنظمة الذكاء الاصطناعي في نشر معلومات مضللة وفي الجرائم الإلكترونية.

كما كشفت الحكومة البريطانية النقاب عن مقترحات لإطار تنظيمي قابل للتكيف حول الذكاء الاصطناعي.

أقرأ تفاصيل الخبر من المصدر – أضغط هنا

كانت هذه تفاصيل إيلون ماسك و1000 خبير يدعون لوقف تطوير أنظمة الذكاء الاصطناعي لهذه الأسباب، نطمح أن نكون قد وفقنا في تزويدك بكافة التفاصيل والمعلومات اللازمة حول الموضوع.

يُرجى ملاحظة أنَّ هذا الخبر تمَّ كتابته بواسطة وكالة خبر ، ولا يعكس وجهة نظر موقع وادي مصر، وقد تمَّ نقله كما هو من المصدر المذكور، ولا نتحمل مسؤولية محتواه، فالعهدة تقع على المصدر الذي تم الإشارة إليه سابقًا.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى