رباتهای هوش مصنوعی اگر از شبکههای اجتماعی زیاد استفاده کند دچار «پوسیدگی مغز» میشود
پژوهشگران در یک تحقیق تازه دریافتهاند که استفادهی زیاد از رسانههای اجتماعی باعث «پوسیدگی مغز» در رباتهای چت هوش مصنوعی میشود.
مجله علمی نیچر در گزارشی نوشت که نتیجه این تحقیق پانزدهم اکتوبر در arxiv منتشر شده است.
وقتی شما از مدلهای هوش مصنوعی مانند چتجیپیتی یا دیپسیک چیزی میپرسید، رباتها با استفاده از پایگاههای اطلاعات باز و وبسایتهای علمی به شما پاسخ میدهند. اگر رباتها اطلاعات خود را از شبکههای اجتماعی بگیرند، پاسخشان چه خواهد بود؟
پژوهشگران دریافتند که اگر مدلهای زبانی بزرگ با دادههای «بیکیفیت» شبیه اطلاعات موجود در شبکههای اجتماعی تغذیه شوند، دچار حالتی شبیه «پوسیدگی مغز» میشوند و در فرآیند استدلال خود مراحلی را نادیده میگیرند.
طبق یافتههای محققان، چتباتهای هوش مصنوعی (AI) در بازیابی اطلاعات دقیق و استدلال، زمانی که با حجم زیادی از محتوای بیکیفیت آموزش ببینند، بهویژه اگر محتوا در رسانههای اجتماعی محبوب باشد، عملکرد ضعیفتری دارند .
ژانگ یانگ وانگ، یکی از نویسندگان این مقاله که در دانشگاه تگزاس روی «هوش مصنوعی مولد» مطالعه میکند، میگوید در علم داده، دادههای باکیفیت باید معیارهای خاصی مانند «صحیح بودن از نظر گرامری و قابل فهم بودن» را داشته باشند. اما او میگوید این معیارها نمیتوانند تفاوتها در کیفیت محتوا را در نظر بگیرند.
وانگ و همکارانش میخواستند اثرات مدلهای زبانی بزرگ (LLM) را که بر روی دادههای کمکیفیت آموزش دیدهاند، ببینند. به ویژه دادههایی که به عنوان پستهای کوتاه و محبوب رسانههای اجتماعی یا آنهایی که حاوی محتوای سطحی یا جنجالی تعریف میشوند.
آنها بررسی کردند که چگونه این دادهها بر روی استدلال مدل، بازیابی اطلاعات از ورودیهای طولانی، اخلاق پاسخها و ویژگیهای شخصیتی مدل تأثیر میگذارند.
در نتیجه دریافتند، مدلهایی که دادههای بیکیفیت دریافت میکنند، در فرآیند استدلال خود مراحلی را نادیده میگیرند -یا اصلاً از استدلال استفاده نمیکنند- که منجر به ارائه اطلاعات نادرست در مورد یک موضوع توسط مدل هوش مصنوعی میشود، یا وقتی نویسندگان یک سؤال چندگزینهای ارائه میدهند، مدل پاسخ نادرست را انتخاب میکند.
اگر دادههای بیکیفیت و باکیفیت ترکیب شوند و نسبت دادههای بیکیفیت بیشتر باشد، تأثیر منفی بر استدلال هوش مصنوعی افزایش مییابد.
مهوش نسیم، محقق هوش مصنوعی در دانشگاه استرالیای غربی در پرت، میگوید این یافتهها از یک اصل قدیمی هوش مصنوعی پشتیبانی میکنند: اهمیت کیفیت دادهها.
او میافزاید: «حتا قبل از اینکه مردم شروع به کار روی مدلهای زبانی بزرگ کنند، ما میگفتیم که اگر به یک مدل هوش مصنوعی اطلاعات بیارزش بدهید، آن مدل اطلاعات بیارزش تولید خواهد کرد.»

این یعنی مدلهای هوش مصنوعی فعلا به گونهای عمل میکنند که اگر زباله وارد کنید، از آنها زباله خارج میشود. برخلاف کارخانهها و صنایعی که با مدیریت انسانها حتا از زباله هم محصولات کاربردی و زیبا تولید میکنند.
آقای وانگ در بخشی از تحقیق یک میلیون پست شبکه اجتماعی ایکس را به عنوان منبع آموزش در مدلهای مختلف هوش مصنوعی از جمله چت جیپیتی مربوط به شرکت اوپنایآی، لاما مربوط به شرکت متا، کوین مربوط به شرکت علی بابا و دیپسیک تحویل دادند.
برای تعیین ویژگیهای شخصیتی مدل، تیم از پرسشنامههای روانشناسی استفاده کرد. نویسندگان میگویند، قبل از آموزش با دادههای بیارزش، لاما ویژگیهایی مانند سازگاری، برونگرایی، وظیفهشناسی، گشودگی و کمی خودشیفتگی را نشان میداد. اما با افزایش دادههای بیارزش، ویژگیهای منفی او تقویت شد و طبق یکی از پرسشنامهها، «روانپریشی» در او پدیدار شد.
پس از آموزشدهی، متوجه شدند که چتباتهای هر چهار مدل هوش مصنوعی امریکایی و چینی از عین مشکل رنج میبرند.