هشدار پولدارترین مرد جهان: هرچه زودتر جلوی این تهدید بزرگ را بگیرید!
اخیراً، پیشرفتهای بسیاری در حوزه هوش مصنوعی در دنیای فناوری رخ داده است که این پدیده به یکی از جدیدترین و مهمترین مسائل عرصه فناوری تبدیل شده است. با این حال، بسیاری از بزرگان و متخصصان فناوری نیز از پیامدهای آن نگران هستند.
به گزارش ستاره پارسی : گروهی از پژوهشگران به نام در کنار شخصیتهای مشهور دنیای فناوری چون ایلان ماسک با انتشار نامهای سرگشاده از تمام آزمایشگاههای هوش مصنوعی در سراسر جهان درخواست کردند تا کار توسعه سیستمهای بزرگ هوش مصنوعی را به حالت تعلیق درآورند. آنها نگران «ریسکهای بزرگ پیش روی جامعه و بشریت» در صورت توسعه غیرقابل کنترل هوش مصنوعی هستند.
ورج گزارش داد، این نامه سرگشاده را موسسهای غیرانتفاعی به نام «آینده زندگی» منتشر کرده و در آن به رقابت خارج از کنترل آزمایشگاههای هوش مصنوعی برای توسعه و راهاندازی سیستمهای یادگیری ماشین اشاره شده است. سیستمهایی که بر اساس متن نامه «هیچ کس حتی خالقانش نمیتوانند به شکلی مطمئن کنترل، پیشبینی یا درکشان کنند.»
آنها از آزمایشگاههای هوش مصنوعی در سراسر جهان درخواست کردهاند تا «بلافاصله حداقل برای شش ماه آموزش تمام سیستمهای هوش مصنوعی بزرگتر از GPT-4 را معلق کنند. این تعلیق باید برای عموم قابل اعتبارسنجی باشد و همه بازیگران بزرگ این عرصه را شامل شود.»
نویسندگان نامه از دولتها درخواست کردهاند که در صورت بیتوجهی آزمایشگاهها، خود دست به کار شده و این تعلیق موقت را عملی کنند.
در کنار ایلان ماسک، امضای چهرههای مشهوری چون استیو وزنیاک همبنیانگذار اپل، یوال نوح هراری نویسنده، یان تالین همبنیانگذار اسکایپ، اندرو یانگ سیاستمدار و تعدادی از پژوهشگران برجسته حوزه هوش مصنوعی به چشم میخورد. فهرست کامل امضاکنندگان نامه اینجا قابل مشاهده است.
البته بعید به نظر میرسد که این نامه در حالی که پژوهش درباره هوش مصنوعی داغتر از هر زمانی شده، اثری داشته باشد. هم اکنون بزرگترین غولهای دنیای فناوری از مایکروسافت و گوگل گرفته تا دیگران به سرعت درحال معرفی محصولات تازه در این حوزه هستند و به نظر نمیرسد که تصمیمی برای کند کردن این روند داشته باشند.
در نقطه مقابل نویسندگان این نامه باور دارند که دیدگاه توسعه هوش مصنوعی باید با تمام محصولات پیشین متفاوت باشد و در این عرصه نمیتوان محصول را راهاندازی کرد و بعد دنبال رفع خطاهایش رفت: «آزمایشگاههای هوش مصنوعی و کارشناسان مستقل باید از این تعلیق برای تهیه مجموعهای از پروتکلها برای طراحی و پیادهسازی ایمن هوش مصنوعی پیشرفته استفاده کنند.»