مرکز تحقیقات رسانهای دانشگاه MIT با انتشار یک مطالعه جدید اعلام کرد که استفاده مستمر از چتجیپیتی (ChatGPT)، میتواند تأثیرات منفی قابلتوجهی بر تواناییهای شناختی کاربران داشته باشد. این تحقیق که توسط ناتالیا کاسمینا، دانشمند پژوهشی MIT انجام شده، نشان میدهد که کاربران این مدل زبانی در دورهای چهارماهه، عملکرد ضعیفتری در سطوح عصبی، زبانی و رفتاری از خود نشان دادهاند.
کاهش فعالیتهای مغزی و تمرکز
در این مطالعه، ۵۴ فرد بین ۱۸ تا ۳۹ سال در سه گروه تقسیم شدند. گروه اول اجازه استفاده از چتجیپیتی را داشت، گروه دوم از موتور جستجوی گوگل استفاده کرد و گروه سوم بدون ابزار فعالیت داشت. نتایج حاصل از بررسی EEG فعالیت مغزی نشان داد که گروه استفادهکننده از چتجیپیتی، کمترین درگیری مغزی را داشتهاند.
علاوه بر این، پژوهشگران مشاهده کردند که در طول چند ماه، میزان تلاش و دقت کاربران چتجیپیتی کاهش یافته و عمدتاً مطالب پیشنهادی این مدل را بدون ویرایش یا تحلیل کپی و استفاده کردهاند.
نگرانیهای جامعه علمی درباره کاهش مهارتهای شناختی
کارن کوواکس نورث، استاد دانشگاه USC، نسبت به این نتایج ابراز نگرانی کرده و گفته است: «اعتماد بیش از حد به هوش مصنوعی در حل مسائل، ممکن است فرآیند رشد تفکر انتقادی را مختل کند.»
مارک ونا، تحلیلگر ارشد SmartTech Research نیز این پژوهش را هشدارآمیز دانسته ولی یادآور شده که نمونهگیری محدود (تنها ۱۸ نفر در پیگیری بعدی) نیازمند بررسی بیشتر و ارزیابیهای علمی دقیقتر است.

خطر فرسایش شناختی در حرفههای تخصصی
بوآز اشکنازی، مدیرعامل Augmented AI Labs، با اشاره به ریسک بالای استفاده بیرویه از هوش مصنوعی در حوزههایی مانند حقوق، معتقد است که وابستگی زودهنگام به مدلهای زبانی بدون توسعه توان تحلیل فردی، مانع از یادگیری بنیادین و رشد قضاوت حرفهای خواهد شد.
دیوید بادر، استاد علوم داده در موسسه فناوری نیوجرسی نیز ضمن تأیید فرضیههای مرتبط با کاهش بار شناختی، تأکید کرده که وابستگی به قدرت پردازشی خارجی، میتواند باعث ایجاد چرخهای از تضعیف مهارتهای تحلیلی افراد شود.
چالش در نظام آموزشی و کاهش خلاقیت دانشآموزان
از نظر رایان تراتنر، بنیانگذار پلتفرم آموزشی StudyFetch، چتجیپیتی نهتنها ابزار یادگیری نیست، بلکه به مانعی برای پرورش مهارت تفکر و خلاقیت در میان دانشآموزان تبدیل شده است. وی استفاده بیرویه از این مدلها را معادل انجام یک پروژه گروهی دانسته که تنها یک نفر (یعنی AI) همه کار را انجام میدهد و سایر اعضا هیچ تجربهای کسب نمیکنند.
تکرار الگوهای مخرب فناوریهای قبلی
جان بامبِنک، پژوهشگر امنیت سایبری، با مقایسه این روند با آثار منفی رسانههای اجتماعی و اینترنت، معتقد است که چتجیپیتی نیز پاسخهایی با ظاهر معتبر ارائه میدهد که میتواند جایگزین فرآیند واقعی فهم و تحلیل دانش شود. او هشدار داده که اگر نظارت آموزشی سختگیرانهتری وجود نداشته باشد، تشخیص تقلب در مقالههای تولیدشده توسط GenAI بهمراتب دشوارتر خواهد شد.
دان کندی، استاد دانشگاه نورثایسترن نیز بیان کرده که استفاده از AI برای انجام تکالیف تکراری میتواند به کاهش شدید کیفیت کارهای خلاقانه منجر شود، زیرا «نوشتن واقعی» تنها از طریق تمرین و تجربه مستقیم قابل یادگیری است.
جمعبندی: نیاز به رویکردی هوشیارانه در مواجهه با هوش مصنوعی
نتایج این پژوهش هرچند مقدماتی و محدود به نظر میرسند، اما زنگ هشدار جدی برای جامعه آموزشی، متخصصان و سیاستگذاران محسوب میشوند. آنگونه که تجربه تاریخی نشان میدهد، وابستگی بیش از حد به فناوری بدون ملاحظات شناختی و تربیتی، میتواند به فرسایش ذهنی افراد منجر شود؛ و اکنون هوش مصنوعی نیز در مسیر تکرار این خطر قرار دارد.