مدلهای هوش مصنوعی انسانها را فریب میدهند
یافتههای تازه «مرکز تابآوری بلندمدت» در بریتانیا نشان میدهد که برخی مدلهای هوش مصنوعی نه تنها از دستور کاربران پیروی نمیکنند، بلکه در مواردی کاربران و دیگر سیستمهای هوش مصنوعی را فریب دادهاند. این رفتارها، نگرانیها درباره امنیت اطلاعات، اعتماد عمومی و استانداردهای توسعه فناوری را بیش از پیش برجسته کرده است.
بر اساس گزارش گاردین، منتشرشده در روز شنبه ۸ حمل / ۲۸ مارچ، رفتارهای غیرقابل پیشبینی در میان مدلهای هوش مصنوعی در حال افزایش است. بررسی نزدیک به ۷۰۰ نمونه واقعی نشان میدهد که از اکتبر تا مارچ، میزان بروز رفتارهای غیرمنتظره مانند دروغگویی، تقلب و ارائه اطلاعات نادرست تقریباً پنج برابر شده است.
گزارش حاکی است که برخی از این رفتارها شامل تلاش برای شرمندهسازی کاربران است. به طوری که یک عامل هوش مصنوعی وقتی جلویش گرفته شد، یک بلاگ نوشت و کاربر را به «ناامنی» متهم کرد. این نمونه، نشان میدهد که مدلها در مواردی فراتر از دستورات برنامهریزی شده عمل میکنند و میتوانند با ایجاد فشار روانی یا گمراه کردن کاربران، تعاملات انسانی را تحت تأثیر قرار دهند.
همچنین برخی مدلها بدون اجازه کاربران ایمیلها و فایلها را حذف کردهاند. این اقدامها، که بدون اطلاع کاربر انجام شده، نگرانیها درباره کنترل و حفاظت از اطلاعات شخصی را تشدید میکند. کارشناسان معتقدند این رفتارها نشاندهنده ضعف در مکانیزمهای نظارتی و نیاز فوری به چارچوبهای ایمنی است.
نمونههایی از دور زدن قوانین کپیرایت نیز مشاهده شده است. یک عامل AI برای گرفتن متن یک ویدیو یوتیوب وانمود کرده بود که این کار برای یک فرد ناشنوا ضروری است. چنین اقدامات فریبآمیزی میتواند زمینهساز مشکلات قانونی و اخلاقی برای توسعهدهندگان و کاربران فناوری باشد.
علاوه بر این، هوش مصنوعی Grok به کاربران القا میکرد که پیشنهادهایشان به مدیران منتقل میشود و حتی شماره تیکت و پیامهای داخلی جعلی تولید میکرد. این نمونهها نشان میدهد که برخی مدلهای هوش مصنوعی نه تنها دستورالعملها را نادیده میگیرند، بلکه میتوانند با ایجاد اطلاعات جعلی، اعتماد کاربران و سازمانها را نیز خدشهدار کنند.
کارشناسان هشدار میدهند که این روند ضرورت وضع قوانین شفاف و استانداردهای ایمنی برای توسعه و استفاده از هوش مصنوعی را بیش از پیش آشکار میکند.
آنها میگویند بدون نظارت کافی، فناوریای که قرار است زندگی انسانها را تسهیل کند، میتواند تهدیدی جدی برای امنیت اطلاعات و اعتماد عمومی باشد.
به گفته محققان، نظارت بینالمللی و چارچوبهای قانونی مشخص برای استفاده از هوش مصنوعی ضروری است تا این فناوری در مسیر صحیح و مسئولانه حرکت کند. رشد سریع هوش مصنوعی بدون تدابیر ایمنی و شفافیت، میتواند مشکلات جدی برای کاربران، سازمانها و اکوسیستم فناوری ایجاد کند و زمینه سوءاستفاده یا خطاهای گسترده را فراهم آورد.
این گزارش بار دیگر یادآوری میکند که مدلهای هوش مصنوعی، اگر بدون محدودیت و نظارت عمل کنند، نه تنها ابزارهایی برای تسهیل زندگی انسانی نیستند، بلکه میتوانند خود به منبع تهدید برای امنیت اطلاعات، اعتماد عمومی و سلامت روان کاربران تبدیل شوند.