دوشنبه 28 خرداد 1403 - 17 Jun 2024
کد خبر: 85939
تاریخ انتشار: 1402/01/20 11:48

ChatGPT این کارمندان را بیچاره کرد! | استفاده از چت جی پی تی این کمپانی را رسوا کرد

گفته شده که سامسونگ با محدودکردن طول دستورات ChatGPT به یک کیلوبایت یا ۱۰۲۴ کاراکتر، تلاش کرده است تا از بروز مشکلات مشابه در آینده جلوگیری کند.

کارمندان سامسونگ علاوه بر ارائه کد منبع پایگاه داده، ویدیوی ضبط‌شده‌ای از یک جلسه را با چت‌بات ChatGPT به اشتراک گذاشته‌اند. بلافاصله پس از اینکه بخش نیمه‌هادی سامسونگ اجازه استفاده از ChatGPT را به مهندسان خود داد، کارمندان غول فناوری حداقل در سه نوبت اطلاعات محرمانه‌ای را به آن لو دادند. گفته می‌شود یکی از کارمندان از چت‌بات OpenAI درخواست کرده است تا کد منبع پایگاه داده حساسی را از نظر خطا بررسی کند، کارمند دیگری بهینه‌سازی کد را درخواست کرده و نفر سوم جلسه ضبط‌شده‌ای را برای ChatGPT ارسال کرده است تا آن را به یک یادداشت تبدیل کند.

علاوه‌براین، گفته شده که سامسونگ با محدودکردن طول دستورات ChatGPT به یک کیلوبایت یا ۱۰۲۴ کاراکتر، تلاش کرده است تا از بروز مشکلات مشابه در آینده جلوگیری کند. همچنین این شرکت ظاهراً درحال بررسی سه کارمند اشاره‌شده و ساخت چت‌بات اختصاصی خود برای جلوگیری از حوادث مشابه است.

در سیاست مربوط به داده‌های ChatGPT نوشته شده که این چت‌بات از دستورات کاربران برای آموزش خود استفاده می‌کند. مالک این ابزار، یعنی OpenAI نیز از کاربران درخواست کرده است تا اطلاعات محرمانه را با آن به اشتراک نگذارند؛ زیرا «نمی‌تواند درخواست‌های خاصی را از تاریخچه شما حذف کند». تنها راه حذف‌کردن اطلاعات شخصی از داده‌های ChatGPT، حذف حساب کاربری است که می‌تواند چهار هفته طول بکشد.

اشتباه کارمندان سامسونگ مثال دیگری است که نشان می‌دهد هنگام استفاده از چت‌بات‌های هوش مصنوعی نیز مانند تمام فعالیت‌های آنلاین خود، باید احتیاط کرد.

اخیراً درباره چت‌بات OpenAI گفته شده بود که ChatGPT ظاهراً درحال مسدودکردن شماره‌های کشور‌های آسیایی است و به معرفی ساعتی پرداخته بودیم که با کمک آن، زمان را به‌صورت شعر بیان می‌کند. همچنین استفاده از این ابزار به‌دلیل نگرانی‌های مربوط به حریم خصوصی، در ایتالیا ممنوع شده بود.

 

کپی لینک کوتاه خبر: https://smtnews.ir/d/2ox75g