هوش مصنوعی قهرمان یا پینوکوی عصر دیجیتال؟
علی میرزاییسیسان پژوهشگر حوزه صنعت
هوش مصنوعی بدونتردید ابزاری شگفتانگیز است؛ اما همین فناوری میتواند با اطمینانی فریبنده، پاسخهایی ساختگی و بیاساس تولید کند. این پدیده که به توهم (Hallucination) شناخته میشود، یک خطای ساده در هوش مصنوعی نیست، بلکه ریشه در معماری مدلهای مربوطه دارد. طبق نتایج پژوهشی از OpenAI و دانشگاه فناوری جورجیا، در ماه سپتامبر ۲۰۲۵ انجام شده، این گزافهگویی دیجیتال را نتیجه نظام ارزیابی فعلی دانسته که پاسخها را تنها در قالب “درست” یا “نادرست” میسنجد و برای اذعان به “ندانستن” پاداشی در نظر نمیگیرد. در نتیجه، الگوریتمها ترجیح میدهند حدسی پرمخاطره بزنند (حتی اگر غلط باشد) تا اینکه اعتراف به ندانستن کنند. متأسفانه پس از پردازش میلیاردها داده از سراسر دنیا، محصول سامانههایی شده که بر تولید پاسخ سریع و (اغلب کاربرپسند) اصرار دارند، نه بر صحت و دقت.
خطرات لافزنی دیجیتال؛ باربارا کریستی، پژوهشگر مؤسسه IMD، هشدار میدهد که پدیده “توهم هوش مصنوعی” پیامدهایی جدی در جهان کاربردی دارد: از سامانه پزشکی که نسخهای نادرست ارائه کند، تا سیستم حقوقی که با تفسیری غلط رسوایی بیافریند، یا دانشجویی که ناآگاهانه منابع نامربوط را باز نشر دهد. گزارش شرکت دیلویت نشان میدهد ۷۷ درصد کسبوکارها “توهم هوش مصنوعی” را تهدیدی مستقیم برای بقا میدانند. و این یک نگرانی جدی و نه صرفا هراسافکنی است. افزایش حجم دادههای آموزشی بهتنهایی برای بالا بردن دقت و کاهش اشتباه هوش مصنوعی کارساز نیست؛ زیرا چارچوبهای کنونی برای "ندانستن" ارزشی قائل نیستند. حتی پیشرفتهترین مدلها همچون GPT-۴ نیز میتواند گزافهگویی کند و یادگیری تقویتی با دادههای بیشتر، اغلب صرفا دروغها را قانعکنندهتر میسازد. بیشتر شرکتهای بزرگ این حوزه نیز صداقت را فدای روانی و سرعت پاسخ کردهاند. تنها استثنا شاید، شرکت Anthropic است که به مدل خود (Claude) اجازه میدهد صریحا بگوید “نمیدانم”. بازنگری در قواعد حکمرانی؛ حذف هوش مصنوعی از زندگی خیلی از کاربران دیگر منطقی نیست، اما کاهش ریسک آن ضروری است. راهحل نه صرفا در اصلاح معماری مدلها، بلکه در بازتعریف اصول آموزش و ارتقای آگاهی کاربران است. الگوریتمها باید برای اعلام عدمقطعیت پاداش بگیرند و اعتماد بهنفس کاذب باید هزینهزا باشد. گفتن “نمیدانم” باید به نشانهای از بلوغ هوش مصنوعی تبدیل شود، نه شکست. اولویت استراتژیک؛ صنایع تریلیوندلاری هنوز بهدلیل بیاعتمادی، پذیرش گسترده هوش مصنوعی را به تعویق انداختهاند. شرکتی که نخستینبار پاسخ "نمیدانم" را به یک استاندارد قابل اتکا تبدیل کند، مسیر پذیرش جهانی را خواهد گشود. از همینرو، پرسش محوری مدیران و سرمایهگذاران در این حوزه باید این باشد: «مدل شما چگونه با عدم قطعیت روبهرو میشود، آیا صداقت را پاداش میدهد یا فقط سرعت جواب دادن را؟» این پرسشی استراتژیک است، نه صرفا فنی؛ پرسشی که آینده اعتماد و مشروعیت صنعت را رقم خواهد زد. پس پاسخهای هوش مصنوعی ارزشمندند، اما بیخطا نیستند. برای بهرهبرداری مسئولانه باید اطلاعات حیاتی را با منابع دیگر، مدلهای متنوع و نظر متخصصان اعتبارسنجی کرد. از هوش مصنوعی باید شواهد مطالبه شود و این شواهد نیز مستقل بررسی گردند. نگاه به آن بهعنوان "دستیار پژوهشی"، نه مرجع نهایی، امکان بهرهگیری حداکثری را فراهم میآورد.
محورهای سیاستگذاری برای کاهش ریسک؛ در این زمینه قانونگذاران نیز در حال ورود به میدان هستند. اتحادیه اروپا شفافیت و اعتمادپذیری را الزام کرده، ایالاتمتحده معیارهای اجرایی برای شفافسازی تدوین میکند و چین تولید پاسخهای ساختگی هوش مصنوعی را ممنوع کرده است. درنهایت اگر صنعت داوطلبانه اصلاح نشود، قانون کشورهای پیشرو درصدد اصلاح آنان خواهند بود. سه قدم در این راستا لازم به نظر میرسد:
۱-شفافسازی: تدوین چارچوب الزامآور که شرکتها را موظف کند خروجیها را همراه با سطح اطمینان، منابع و احتمال خطا ارائه دهند. این اقدام اعتماد عمومی و سازمانی را بهطور چشمگیر تقویت میکند.
۲-ارتقای سواد هوش مصنوعی: سرمایهگذاری در آموزش مدیران، متخصصان و عموم کاربران برای تشخیص و اعتبارسنجی پاسخها. آموزش هزینهای استراتژیک برای کاهش آسیبهای فناوریهای آینده است.
۳-همگرایی حکمرانی دولتها: همکاری بینالمللی جهت تدوین پروتکلهای شفافیت و نظارت، همانگونه که در موضوعاتی چون امنیت سایبری اجتنابناپذیر است
در نهایت اینکه هوش مصنوعی ابزار معجزهگر یا پینوکیوی عصر دیجیتال است، درنهایت به بلوغ حکمرانی الگوریتمها بستگی دارد. اگر الگوریتمها (داوطلبانه و یا بهاجبار قانون) به صداقت پاسخ پاداش دهند و بهموازات سیاستگذاران با شفافیت و آموزش این تکنولوژیهای جدید بها دهند، این فناوری میتواند همپای بزرگترین انقلابهای فناورانه تاریخ قرار گیرد. اما اگر صنعت همچنان به معیارهای سرعت پاسخ اهمیت دهد، و قانونگذار عقبتر از فناوری حرکت کند، اعتماد عمومی فروریخته و فرصت طلایی جهش بهواسطه هوش مصنوعی از دست خواهد رفت. انتخاب میان قهرمان یا پینوکیو بودن، نه در ذات هوش مصنوعی، که در شیوه تربیت و حکمرانی آن توسط ما انسانها نهفته است.