11/29/2025
ربات‌های هوش مصنوعی اگر از شبکه‌های اجتماعی زیاد استفاده کند دچار «پوسیدگی مغز» می‌شود
شگفت‌انگیز مهم ترین

ربات‌های هوش مصنوعی اگر از شبکه‌های اجتماعی زیاد استفاده کند دچار «پوسیدگی مغز» می‌شود

نوامبر 3, 2025

پژوهشگران در یک تحقیق تازه دریافته‌اند که استفاده‌ی زیاد از رسانه‌های اجتماعی باعث «پوسیدگی مغز» در ربات‌های چت هوش مصنوعی می‌شود.

مجله علمی نیچر در گزارشی نوشت که نتیجه این تحقیق پانزدهم اکتوبر در arxiv منتشر شده است.

وقتی شما از مدل‌های هوش مصنوعی مانند چت‌جی‌پی‌تی یا دیپ‌سیک چیزی می‌پرسید، ربات‌ها با استفاده از پایگاه‌های اطلاعات باز و وبسایت‌های علمی به شما پاسخ می‌دهند. اگر ربات‌ها اطلاعات خود را از شبکه‌های اجتماعی بگیرند، پاسخ‌شان چه خواهد بود؟

پژوهشگران دریافتند که اگر مدل‌های زبانی بزرگ با داده‌های «بی‌کیفیت» شبیه اطلاعات موجود در شبکه‌های اجتماعی تغذیه شوند، دچار حالتی شبیه «پوسیدگی مغز» می‌شوند و در فرآیند استدلال خود مراحلی را نادیده می‌گیرند.

طبق یافته‌های محققان، چت‌بات‌های هوش مصنوعی (AI) در بازیابی اطلاعات دقیق و استدلال، زمانی که با حجم زیادی از محتوای بی‌کیفیت آموزش ببینند، به‌ویژه اگر محتوا در رسانه‌های اجتماعی محبوب باشد، عملکرد ضعیف‌تری دارند .

ژانگ یانگ وانگ، یکی از نویسندگان این مقاله که در دانشگاه تگزاس روی «هوش مصنوعی مولد» مطالعه می‌کند، می‌گوید در علم داده، داده‌های باکیفیت باید معیارهای خاصی مانند «صحیح بودن از نظر گرامری و قابل فهم بودن» را داشته باشند. اما او می‌گوید این معیارها نمی‌توانند تفاوت‌ها در کیفیت محتوا را در نظر بگیرند.

وانگ و همکارانش می‌خواستند اثرات مدل‌های زبانی بزرگ (LLM) را که بر روی داده‌های کم‌کیفیت آموزش دیده‌اند، ببینند. به ویژه داده‌هایی که به عنوان پست‌های کوتاه و محبوب رسانه‌های اجتماعی یا آن‌هایی که حاوی محتوای سطحی یا جنجالی تعریف می‌شوند.

آن‌ها بررسی کردند که چگونه این داده‌ها بر روی استدلال مدل، بازیابی اطلاعات از ورودی‌های طولانی، اخلاق پاسخ‌ها و ویژگی‌های شخصیتی مدل تأثیر می‌گذارند.

در نتیجه دریافتند، مدل‌هایی که داده‌های بی‌کیفیت دریافت می‌کنند، در فرآیند استدلال خود مراحلی را نادیده می‌گیرند -یا اصلاً از استدلال استفاده نمی‌کنند- که منجر به ارائه اطلاعات نادرست در مورد یک موضوع توسط مدل هوش مصنوعی می‌شود، یا وقتی نویسندگان یک سؤال چندگزینه‌ای ارائه می‌دهند، مدل پاسخ نادرست را انتخاب می‌کند.

اگر داده‌های بی‌کیفیت و باکیفیت ترکیب شوند و نسبت داده‌های بی‌کیفیت بیشتر باشد، تأثیر منفی بر استدلال هوش مصنوعی افزایش می‌یابد.

مهوش نسیم، محقق هوش مصنوعی در دانشگاه استرالیای غربی در پرت، می‌گوید این یافته‌ها از یک اصل قدیمی هوش مصنوعی پشتیبانی می‌کنند: اهمیت کیفیت داده‌ها.

او می‌افزاید: «حتا قبل از اینکه مردم شروع به کار روی مدل‌های زبانی بزرگ کنند، ما می‌گفتیم که اگر به یک مدل هوش مصنوعی اطلاعات بی‌ارزش بدهید، آن مدل اطلاعات بی‌ارزش تولید خواهد کرد.»

این یعنی مدل‌های هوش مصنوعی فعلا به گونه‌ای عمل می‌‎کنند که اگر زباله وارد کنید، از آن‌ها زباله خارج می‌شود. برخلاف کارخانه‌ها و صنایعی که با مدیریت انسان‌ها حتا از زباله هم محصولات کاربردی و زیبا تولید می‌کنند.

آقای وانگ در بخشی از تحقیق یک میلیون پست شبکه اجتماعی ایکس را به عنوان منبع آموزش در مدل‌های مختلف هوش مصنوعی از جمله چت جی‌پی‌تی مربوط به شرکت اوپن‌ای‌آی، لاما مربوط به شرکت متا، کوین مربوط به شرکت علی بابا و دیپ‌سیک تحویل دادند.

برای تعیین ویژگی‌های شخصیتی مدل، تیم از پرسش‌نامه‌های روان‌شناسی استفاده کرد. نویسندگان می‌گویند، قبل از آموزش با داده‌های بی‌ارزش، لاما ویژگی‌هایی مانند سازگاری، برون‌گرایی، وظیفه‌شناسی، گشودگی و کمی خودشیفتگی را نشان می‌داد. اما با افزایش داده‌های بی‌ارزش، ویژگی‌های منفی او تقویت شد و طبق یکی از پرسش‌نامه‌ها، «روان‌پریشی» در او پدیدار شد.

پس از آموزش‌دهی، متوجه شدند که چت‌بات‌های هر چهار مدل‌ هوش مصنوعی امریکایی و چینی از عین مشکل رنج می‌برند.

Leave a Reply

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *