Колко електричество е необходимо за обучението на един ИИ модел?
Обучението на един голям модел с изкуствен интелект консумира толкова енергия, колкото средно домакинство за над един век.
Създаването на модели като GPT-3 изисква хиляди мощни графични процесори, които работят непрекъснато в продължение на месеци. Този процес консумира около 1287 мегаватчаса електроенергия. Тъй като едно средно българско семейство използва между 3 и 5 мегаватчаса годишно, енергията за един такъв модел би стигнала за захранването на един дом за близо 300 години.
Nerd Mode
Обучението на модела GPT-3 на OpenAI със 175 милиарда параметра е ключов пример за огромния енергиен отпечатък на модерните технологии. Според изследване на Google и Калифорнийския университет в Бъркли от 2021 г., този процес консумира точно 1287 мегаватчаса (MWh) електроенергия.Основният разход идва от използването на над 10 000 графични процесора NVIDIA V100, които работят в огромни центрове за данни. Тези центрове изискват допълнителна енергия и за охлаждане, за да се предотврати прегряването на оборудването.Освен електричеството, обучението на подобни модели отделя значителни количества въглероден диоксид. Изчислено е, че обучението на GPT-3 е довело до емисии от над 500 тона CO2, което е равносилно на десетки полети между Ню Йорк и Лондон. Този проблем стимулира развитието на „Зелен изкуствен интелект", който се фокусира върху по-ефективни алгоритми и използването на възобновяеми енергийни източници в дейта центровете.
Проверен факт
FP-0005462 · Feb 20, 2026