-

هوش مصنوعی قهرمان یا پینوکوی عصر دیجیتال؟

علی میرزایی‌سیسان پژوهشگر حوزه صنعت

ی ۴

هوش مصنوعی بدون‌تردید ابزاری شگفت‌انگیز است؛ اما همین فناوری می‌تواند با اطمینانی فریبنده، پاسخ‌هایی ساختگی و بی‌اساس تولید کند. این پدیده که به توهم (Hallucination) شناخته می‌شود، یک خطای ساده در هوش مصنوعی نیست، بلکه ریشه در معماری مدل‌های مربوطه دارد. طبق نتایج پژوهشی از OpenAI و دانشگاه فناوری جورجیا، در ماه سپتامبر ۲۰۲۵ انجام شده، این گزافه‌گویی دیجیتال را نتیجه نظام ارزیابی فعلی دانسته که پاسخ‌ها را تنها در قالب “درست” یا “نادرست” می‌سنجد و برای اذعان به “ندانستن” پاداشی در نظر نمی‌گیرد. در نتیجه، الگوریتم‌ها ترجیح می‌دهند حدسی پرمخاطره بزنند (حتی اگر غلط باشد) تا اینکه اعتراف به ندانستن کنند. متأسفانه پس از پردازش میلیاردها داده از سراسر دنیا، محصول سامانه‌هایی شده که بر تولید پاسخ سریع و (اغلب کاربرپسند) اصرار دارند، نه بر صحت و دقت.

خطرات لاف‌زنی دیجیتال؛ باربارا کریستی، پژوهشگر مؤسسه IMD، هشدار می‌دهد که پدیده “توهم هوش مصنوعی” پیامدهایی جدی در جهان کاربردی دارد: از سامانه پزشکی که نسخه‌ای نادرست ارائه کند، تا سیستم حقوقی که با تفسیری غلط رسوایی بیافریند، یا دانشجویی که ناآگاهانه منابع نامربوط را باز نشر دهد. گزارش شرکت دیلویت نشان می‌دهد ۷۷ درصد کسب‌وکارها “توهم هوش مصنوعی” را تهدیدی مستقیم برای بقا می‌دانند. و این یک نگرانی جدی و نه صرفا هراس‌افکنی است. افزایش حجم داده‌های آموزشی به‌تنهایی برای بالا بردن دقت و کاهش اشتباه هوش مصنوعی کارساز نیست؛ زیرا چارچوب‌های کنونی برای "ندانستن" ارزشی قائل نیستند. حتی پیشرفته‌ترین مدل‌ها همچون GPT-۴ نیز می‌تواند گزافه‌گویی کند و یادگیری تقویتی با داده‌های بیشتر، اغلب صرفا دروغ‌ها را قانع‌کننده‌تر می‌سازد. بیشتر شرکت‌های بزرگ این حوزه نیز صداقت را فدای روانی و سرعت پاسخ کرده‌اند. تنها استثنا شاید، شرکت Anthropic است که به مدل خود (Claude) اجازه می‌دهد صریحا بگوید “نمی‌دانم”. بازنگری در قواعد حکمرانی؛ حذف هوش مصنوعی از زندگی خیلی از کاربران دیگر منطقی نیست، اما کاهش ریسک آن ضروری است. راه‌حل نه صرفا در اصلاح معماری مدل‌ها، بلکه در بازتعریف اصول آموزش و ارتقای آگاهی کاربران است. الگوریتم‌ها باید برای اعلام عدم‌قطعیت پاداش بگیرند و اعتماد به‌نفس کاذب باید هزینه‌زا باشد. گفتن “نمی‌دانم” باید به نشانه‌ای از بلوغ هوش مصنوعی تبدیل شود، نه شکست. اولویت استراتژیک؛ صنایع تریلیون‌دلاری هنوز به‌دلیل بی‌اعتمادی، پذیرش گسترده هوش مصنوعی را به تعویق انداخته‌اند. شرکتی که نخستین‌بار پاسخ "نمی‌دانم" را به یک استاندارد قابل اتکا تبدیل کند، مسیر پذیرش جهانی را خواهد گشود. از همین‌رو، پرسش محوری مدیران و سرمایه‌گذاران در این حوزه باید این باشد: «مدل شما چگونه با عدم قطعیت روبه‌رو می‌شود، آیا صداقت را پاداش می‌دهد یا فقط سرعت جواب دادن را؟» این پرسشی استراتژیک است، نه صرفا فنی؛ پرسشی که آینده اعتماد و مشروعیت صنعت را رقم خواهد زد. پس پاسخ‌های هوش مصنوعی ارزشمندند، اما بی‌خطا نیستند. برای بهره‌برداری مسئولانه باید اطلاعات حیاتی را با منابع دیگر، مدل‌های متنوع و نظر متخصصان اعتبارسنجی کرد. از هوش مصنوعی باید شواهد مطالبه شود و این شواهد نیز مستقل بررسی گردند. نگاه به آن به‌عنوان "دستیار پژوهشی"، نه مرجع نهایی، امکان بهره‌گیری حداکثری را فراهم می‌آورد.

محورهای سیاست‌گذاری برای کاهش ریسک؛ در این زمینه قانون‌گذاران نیز در حال ورود به میدان هستند. اتحادیه اروپا شفافیت و اعتمادپذیری را الزام کرده، ایالات‌متحده معیارهای اجرایی برای شفاف‌‌سازی تدوین می‌کند و چین تولید پاسخ‌های ساختگی هوش مصنوعی را ممنوع کرده است. درنهایت اگر صنعت داوطلبانه اصلاح نشود، قانون کشورهای پیشرو درصدد اصلاح آنان خواهند بود. سه قدم در این راستا لازم به نظر می‌رسد: 

۱-شفاف‌سازی: تدوین چارچوب الزام‌آور که شرکت‌ها را موظف کند خروجی‌ها را همراه با سطح اطمینان، منابع و احتمال خطا ارائه دهند. این اقدام اعتماد عمومی و سازمانی را به‌طور چشمگیر تقویت می‌کند.

۲-ارتقای سواد هوش مصنوعی: سرمایه‌گذاری در آموزش مدیران، متخصصان و عموم کاربران برای تشخیص و اعتبارسنجی پاسخ‌ها. آموزش هزینه‌ای استراتژیک برای کاهش آسیب‌های فناوری‌های آینده است.

۳-همگرایی حکمرانی دولت‌ها: همکاری بین‌المللی جهت تدوین پروتکل‌های شفافیت و نظارت، همان‌گونه که در موضوعاتی چون امنیت سایبری اجتناب‌ناپذیر است

در نهایت اینکه هوش مصنوعی ابزار معجزه‌گر یا پینوکیوی عصر دیجیتال است، درنهایت به بلوغ حکمرانی الگوریتم‌ها بستگی دارد. اگر الگوریتم‌ها (داوطلبانه و یا به‌اجبار قانون) به صداقت پاسخ پاداش دهند و به‌موازات سیاست‌گذاران با شفافیت و آموزش این تکنولوژی‌های جدید بها دهند، این فناوری می‌تواند همپای بزرگ‌ترین انقلاب‌های فناورانه تاریخ قرار گیرد. اما اگر صنعت همچنان به معیارهای سرعت پاسخ اهمیت دهد، و قانون‌گذار عقب‌تر از فناوری حرکت کند، اعتماد عمومی فروریخته و فرصت طلایی جهش به‌واسطه هوش مصنوعی از دست خواهد رفت. انتخاب میان قهرمان یا پینوکیو بودن، نه در ذات هوش مصنوعی، که در شیوه تربیت و حکمرانی آن توسط ما انسان‌ها نهفته است. 

دیدگاهتان را بنویسید

بخش‌های ستاره دار الزامی است
*
*

آخرین اخبار

پربازدیدترین