ویتالیک بوترین، بنیانگذار اتریوم، هشدار داده که هوش مصنوعی ابرهوشمند ممکن است زودتر از آنچه تصور میشود به واقعیت تبدیل شود. این اظهارات در شرایطی بیان شده که با توسعه سریع هوش مصنوعی، نگرانیها درباره ایمنی آن افزایش یافته است.
او معتقد است فناوری باید برای دفاع و کمک به بشریت توسعه یابد، نه آسیبرساندن. وی همچنین در سال ۲۰۲۳ هشدار داده بود که هوش مصنوعی میتواند در بدترین حالت ممکن به انقراض انسانها منجر شود.
بوترین پیشبینی کرده که (AGI) ممکن است ظرف سه سال و هوش مصنوعی ابرهوشمند در سه سال بعد از آن به وجود بیاید. او نوشت:
«اگر نمیخواهیم دنیا نابود شود یا در یک تله غیرقابلبرگشت گرفتار شود، باید هم پیشرفتهای مثبت را سرعت دهیم و هم پیشرفتهای منفی را کند کنیم.»
بوترین پیشنهاد کرده است که سیستمهای هوش مصنوعی غیرمتمرکز طراحی شوند تا همچنان تحت کنترل تصمیمات انسانی باقی بمانند. این روش میتواند تهدیدات فاجعهبار را کاهش دهد.
او همچنین از استفاده نظامی از هوش مصنوعی بهعنوان یکی از عوامل بالقوه برای «سناریوی نابودی هوش مصنوعی» یاد کرد. بوترین هشدار داد که در اکثر قوانین مربوط به تنظیم هوش مصنوعی، نظامیها احتمالاً مستثنی خواهند بود که همین موضوع آنها را به تهدیدی جدی تبدیل میکند.
بوترین پیشنهاد داد که سختافزار هوش مصنوعی به تراشهای مجهز شود که تنها در صورتی اجازه فعالیت بدهد که سه امضا از نهادهای بینالمللی، حداقل یکی غیرنظامی، دریافت کند. با این حال، بوترین اذعان کرد که این استراتژیها نقصهایی دارند و فقط راهحلهای موقتی هستند.
منبع: Beincrypto