در یک حرکت بیسابقه و قابل توجه، بیش از ۱۱۰۰ شخصیت برجسته از حوزههای مختلف علم، فناوری، سیاست و اقتصاد در سراسر جهان، با امضای بیانیهای مشترک خواستار توقف فوری توسعه هوش مصنوعی فوقپیشرفته (Superintelligence AI) شدند.
این چهرههای سرشناس تاکید کردهاند که این توقف باید تا زمانی ادامه یابد که اجماع علمی گستردهای درباره ایمنی کامل این فناوری حاصل شده و حمایت عمومی کافی برای توسعه مسئولانه آن به دست آید. نگرانی اصلی امضاکنندگان، خطرات بالقوهای است که یک هوش مصنوعی بسیار قدرتمند و بدون کنترل کافی میتواند برای آینده بشر به همراه داشته باشد.
++ تصویر: هوش مصنوعی و مفهوم ابرهوشمند (Superintelligence) ++
در میان امضاکنندگان این بیانیه، نامهای پرآوازهای چون جفری هینتن (برنده جایزه نوبل و از پیشگامان هوش مصنوعی)، مایک مولن (رئیس پیشین ستاد مشترک ارتش آمریکا)، استیو وزنیاک (همبنیانگذار شرکت اپل)، ریچارد برانسون (کارآفرین و سرمایهگذار بریتانیایی) و یوشوا بنگیو (برنده جایزه تورینگ) به چشم میخورند که وزن این درخواست را دوچندان میکند.
این ابتکار عمل توسط مؤسسه آینده زندگی (Future of Life Institute) و تحت مدیریت آنتونی آگویر، فیزیکدان دانشگاه کالیفرنیا در سانتا کروز، سازماندهی شده است. این موسسه با حمایت مالی ویتالیک بوترین، همبنیانگذار اتریوم، به دنبال ترویج آیندهای امن و پایدار برای هوش مصنوعی است.
با این حال، به نظر میرسد همه بزرگان حوزه فناوری با این دیدگاه مبنی بر لزوم توقف فوری توسعه هوش مصنوعی فوقپیشرفته موافق نیستند. چهرههایی مانند مارک زاکربرگ، مدیرعامل متا، پیشتر اظهار داشته بود که رسیدن به هوش مصنوعی فوقپیشرفته ممکن است در آینده نزدیک رخ دهد. همچنین سم آلتمن، مدیرعامل شرکت OpenAI، ماه گذشته بیان کرد که اگر این نوع هوش مصنوعی تا سال ۲۰۳۰ به وجود نیاید، تعجب خواهد کرد. این تفاوت دیدگاهها نشاندهنده بحثهای گسترده و پیچیدهای است که در مورد آینده و امنیت هوش مصنوعی در جریان است.
منبع: اینجا











