Атлас искусственного интеллекта: руководство для будущего. Кейт Кроуфорд
о чистых технологиях
Минералы – это основа искусственного интеллекта, но его жизненной силой по-прежнему является электрическая энергия. Передовые вычисления редко рассматриваются с точки зрения углеродного следа, ископаемого топлива и загрязнения окружающей среды; метафоры вроде «облака» подразумевают нечто плавающее и хрупкое в рамках естественной, зеленой индустрии[88]. Серверы спрятаны в неприметных центрах обработки данных, и их загрязняющие свойства гораздо менее заметны, чем дымящиеся трубы угольных электростанций. Технологический сектор активно рекламирует свою экологическую политику, инициативы по устойчивому развитию и планы по решению проблем, связанных с климатом, используя ИИ в качестве инструмента решения проблем. Все это является частью создаваемого общественностью имиджа устойчивой технологической индустрии без выбросов углекислого газа. В действительности же для работы вычислительных инфраструктур Amazon Web Services или Microsoft Azure требуется гигантское количество энергии, а углеродный след систем ИИ, работающих на этих платформах, постоянно растет[89].
Как пишет Тунг Хуи Ху в книге «Предыстория облака»: «Облако – это ресурсоемкая, добывающая технология, которая преобразует воду и электричество в вычислительную мощность, нанося значительный ущерб окружающей среде, которую затем вытесняет из поля зрения»[90]. Решение проблемы энергоемкой инфраструктуры стало одной из главных задач. Конечно, отрасль приложила значительные усилия, чтобы сделать центры обработки данных более энергоэффективными и увеличить использование возобновляемых источников энергии. Но уже сейчас углеродный след мировой вычислительной инфраструктуры сравнялся с углеродным следом авиационной промышленности в период ее расцвета, и он растет даже быстрее[91]. Оценки разнятся: такие исследователи, как Лотфи Белхир и Ахмед Эльмелиги, считают, что к 2040 году на долю технологического сектора придется 14 процентов глобальных выбросов парниковых газов, а группа исследователей из Швеции прогнозирует, что потребление электроэнергии одними только центрами обработки данных к 2030 году возрастет примерно в 15 раз[92].
Внимательно изучив вычислительные мощности, необходимые для создания моделей ИИ, мы видим, что стремление к экспоненциальному увеличению скорости и точности обходится планете дорогой ценой. Требования к обработке данных при обучении моделей ИИ и, следовательно, их энергопотребление все еще являются новой областью исследований. Одна из первых работ в этой области была опубликована исследователем ИИ Эммой Струбелл и ее командой из Массачусетского университета в Амхерсте в 2019 году. Сфокусировавшись на попытке понять углеродный след моделей обработки естественного языка (NLP), они начали набрасывать потенциальные оценки путем запуска моделей ИИ в течение сотен тысяч вычислительных часов[93]. Первые цифры оказались поразительными. Команда Струбелл обнаружила, что запуск всего одной
88
More people are now drawing attention to this problem – including researchers at AI Now. See Dobbe and Whittaker, «AI and Climate Change.»
89
See, as an example of early scholarship in this area, Ensmenger, «Computation, Materiality, and the Global Environment.»
90
Hu, Prehistory of the Cloud, 146.
91
Jones, «How to Stop Data Centres from Gobbling Up the World’s Electricity.» Some progress has been made toward mitigating these concerns through greater energy efficiency practices, but significant long-term challenges remain. Masanet et al., «Recalibrating Global Data Center Energy – Use Estimates.»
92
Belkhir and Elmeligi, «Assessing ICT Global Emissions Footprint»; Andrae and Edler, «On Global Electricity Usage.»
93
Strubell, Ganesh, and McCallum, «Energy and Policy Considerations for Deep Learning in NLP.»