بر اساس گزارشی جدید از یونسکو، اعمال تغییرات کوچک در مدلهای زبانی بزرگ (LLM) که هسته اصلی بسیاری از برنامههای هوش مصنوعی هستند، میتواند منجر به صرفهجویی قابل توجهی در مصرف انرژی شود. این گزارش تحت عنوان «هوشمندتر، کوچکتر، نیرومندتر: هوش مصنوعی مولد با بهرهوری منابع و آینده تحول دیجیتال» منتشر شده و سه راهکار کلیدی برای کاهش مصرف انرژی این فناوری ارائه میکند.
سه مسیر عملی برای کاهش مصرف انرژی مدلهای زبانی
- استفاده از مدلهای کوچکتر و تخصصی
یونسکو میگوید مدلهای کوچکتر، در حالی که از نظر دقت و توانایی قابل رقابت با مدلهای بزرگ هستند، تا ۹۰٪ انرژی کمتری مصرف میکنند. این مدلها برای وظایف خاص مانند ترجمه یا خلاصهسازی طراحی میشوند و بهجای استفاده از یک مدل عمومی برای همه امور، میتوان مدل مناسب را برای کار مشخص بهکار گرفت؛ رویکردی مقرونبهصرفه و منابعمحور که حتی در محیطهایی با محدودیت اتصال اینترنتی قابل استفادهتر است. - کاهش طول ورودیها و پاسخها
کوتاهتر کردن متنهای ورودی و خروجی در تعامل با مدلهای هوش مصنوعی میتواند بیش از ۵۰٪ در مصرف انرژی صرفهجویی کند. این امر علاوه بر کاهش هزینههای پردازش، سرعت پاسخدهی را نیز افزایش میدهد. - استفاده از تکنیکهای فشردهسازی مدل
روشهایی مانند کمدقتسازی (quantization) باعث کاهش پیچیدگی محاسباتی و تا ۴۴٪ صرفهجویی انرژی میشوند. فشردهسازی همچنین اندازه مدل را کوچکتر کرده و سرعت اجرای آن را بالا میبرد.

دلیل مصرف کمتر انرژی توسط مدلهای کوچکتر
جیم اولسن، مدیر فناوری شرکت ModelOp، توضیح میدهد: مدلهای کوچکتر تعداد پارامترهای کمتر، حافظه محدودتر و ظرفیت پردازشی پایینتری نیاز دارند، در نتیجه انرژی کمتری مصرف میکنند. این تفاوت مانند مقایسه یک موتور پرمصرف V8 با موتور کممصرف چهارسیلندر است.
در مقابل، مدلهای بزرگ با پارامترهای بیشمار هنگام تولید پاسخ به یک پرسش، نیاز به انجام محاسبات سنگین دارند که بار زیادی بر پردازندههای گرافیکی (GPU) وارد میکند. متخصصان از جمله وایات میهام و ساگار ایندورخیا تأکید میکنند که برای شرکتهایی که به دنبال کاهش مصرف انرژی هستند، استفاده از مدلهای تخصصی و کوچک گزینهای قابل بررسی است؛ بهویژه زمانیکه بتوان آنها را با دادههای خاص شرکت بهخوبی آموزش داد.
چرا باید از پرسشهای طولانی اجتناب کرد؟
مل موریس، مدیرعامل Corpora.ai، هشدار میدهد که ارتباط چتمحور و طولانی با هوش مصنوعی، بار غیرضروری بر مدل وارد میکند و باعث افزایش مصرف محاسباتی میشود. ایان هولمز از SAS نیز معتقد است کوتاه بودن پرسشها نهتنها مفید، بلکه در کاهش ردپای انرژی تعاملات هوش مصنوعی نقش مهمی ایفا میکند.
با این حال، چارلز یئومانز و اکسل ابلافیا اشاره میکنند که همیشه امکان کاهش حجم پرسش وجود ندارد؛ برخی وظایف بهطور ذاتی نیازمند اطلاعات دقیقتر هستند. بنابراین هوشمند بودن در طراحی متنها از صرفاً کوتاه بودن مؤثرتر است.
چالشهای فشردهسازی مدلها و راهحلهای مکمل
فشردهسازی مدلها در عین مزیت، ممکن است باعث کاهش دقت، منطق و توانایی مدل شود. وایات میهام هشدار میدهد که انجام این کار نیاز به دانش تخصصی و آزمایشهای دقیق دارد. راهکارهای یکسان برای همه مدلها جواب نمیدهند و باید متناسب با معماری مدل و نوع کاربرد انتخاب شوند.
یئومانز از Atombeam پیشنهاد میدهد برای کاهش مصرف انرژی باید مجموعهای از راهکارها بهکار گرفته شود: مدلهای کوچکتر، فشردهسازی، طراحی هوشمند پرسشها، استفاده بهینه از سختافزار و بهکارگیری مدلهای تخصصی بهجای مدلهای عمومی برای هر وظیفه.
ابلافیا از CloudX نیز بر این نکته تأکید دارد که استفاده کورکورانه از مدلهای بزرگ هوش مصنوعی برای هر مسئله منطقی نیست. برخی مسائل با الگوریتمهای سنتی بهتر حل میشوند. بنابراین، بهتر است ابتدا به سراغ مدلهای ساده و بهینه رفت، سپس بر اساس نیاز به مدلهای پیشرفتهتر ارتقا داد—به شرط آنکه اصول «هوشمندانه کار کردن» بهدرستی رعایت شود.