И вновь продолжается цирк*... Вокруг т.н. "искусственного интеллекта". Есть выход, но он не работает
Алмазный дым обещаний, обильно выпускаемый в медиасферу - знаменитыми шоуменами искусственного интеллекта, уже начинает нервировать публику, а главное - инвесторов. Публика - черт с ней, но инвесторы. вложившие миллиарды долларов в условиях уже недешевого кредита - это серьезно. Ведь обещаний роздано много, а не сбылось ни одно.
Сказать инвесторам: "спасибо, парни, что вы щедро финансировали создание софта, способного прекрасно рисовать мультики" - это плохая идея.

Поэтому ИИ-бизнес переходит из фазы обещаний в фазу объяснений, почему ничего не получилось.
CEO Nvidia Дженсен Хуанг "заявил, что будущее искусственного интеллекта за системами, способными к рассуждению, однако для этого необходимо значительно снизить стоимость вычислительных мощностей"**.
Плохому танцору цены мешают.
Тупиковые модели LLM уже тратят столько электричества на дурное перемножение матриц в моделях распознавания, что это начинает становиться фактором роста глобального энергопотребления. А это (как на зло) происходит в условиях хронического энргокризиса, вызванного "зеленым поворотом".
...
Поскольку нельзя заявить, что все пропало, появляется специально обученный конферансье, который предлагает решение: "снизить энергопотребление ИИ на 95%"***(!).
Но есть нюанс:
[цитирую] Традиционно ИИ-системы полагаются на числа с плавающей запятой для выполнения сложных вычислений, особенно при работе с очень большими или малыми числами. Однако такие операции требуют значительных энергетических ресурсов. Например, одна только модель ChatGPT ежедневно потребляет столько энергии, сколько необходимо для работы 18 000 домохозяйств в США, что эквивалентно 564 МВт·ч. По оценкам, к 2027 году потребление энергии в ИИ-индустрии может достичь от 85 до 134 ТВт·ч ежегодно.
Алгоритм L-Mul решает эту проблему, заменяя сложные операции с плавающей запятой более простыми целочисленными сложениями, что значительно снижает нагрузку на энергоресурсы. В тестах алгоритм позволил сократить энергопотребление на 95% для тензорных операций и на 80% для скалярных, при этом сохраняя высокую точность. Падение производительности составило всего 0,07%, что считается приемлемой ценой за столь значительную экономию.
Наибольшие выгоды от использования L-Mul могут получить модели на основе трансформеров, такие как GPT, поскольку алгоритм легко интегрируется в их энергоемкие компоненты. Тесты на популярных моделях ИИ, таких как Llama и Mistral, показали даже улучшение точности в некоторых задачах. [пауза в цитировании]
Лютый бред. В смысле понятно, что целочисленные алгоритмы требуют меньше вычислений, но веса в матрицах распознавания не могут быть целочисленными. Авторы метода понимают это, и потому добавляют к своему оптимистическому сообщению - прекрасное "однако":
[возобновляю цитирование] Однако на пути к массовому внедрению L-Mul есть преграды. Главная проблема заключается в том, что для его работы требуется специализированное оборудование, а современные ускорители для ИИ не оптимизированы для этого метода. Тем не менее, уже ведутся разработки по созданию подходящего аппаратного обеспечения и программных интерфейсов для нового алгоритма.[конец цитирования]
...Такие дела...
---------------------------
*) 2024-05-29 Цифровой цирк вокруг т.н. "искусственного интеллекта" GPT дошел до точки тошноты.
https://alex-rozoff.livejournal.com/787345.html
Картинка: Борис Валехо
**) Дженсен Хуанг: будущее ИИ — за системами рассуждения, но нужно снизить стоимость вычислений
https://hightech.plus/2024/10/11/dzhensen-huang-budushee-ii--za-sistemami-rassuzhdeniya-no-nuzhno-snizit-stoimost-vichislenii
***) Новое решение может снизить энергопотребление ИИ на 95%
https://hightech.plus/2024/10/10/novoe-reshenie-mozhet-snizit-zatrati-energii-na-obuchenie-ii-na-95
Сказать инвесторам: "спасибо, парни, что вы щедро финансировали создание софта, способного прекрасно рисовать мультики" - это плохая идея.

Поэтому ИИ-бизнес переходит из фазы обещаний в фазу объяснений, почему ничего не получилось.
CEO Nvidia Дженсен Хуанг "заявил, что будущее искусственного интеллекта за системами, способными к рассуждению, однако для этого необходимо значительно снизить стоимость вычислительных мощностей"**.
Плохому танцору цены мешают.
Тупиковые модели LLM уже тратят столько электричества на дурное перемножение матриц в моделях распознавания, что это начинает становиться фактором роста глобального энергопотребления. А это (как на зло) происходит в условиях хронического энргокризиса, вызванного "зеленым поворотом".
...
Поскольку нельзя заявить, что все пропало, появляется специально обученный конферансье, который предлагает решение: "снизить энергопотребление ИИ на 95%"***(!).
Но есть нюанс:
[цитирую] Традиционно ИИ-системы полагаются на числа с плавающей запятой для выполнения сложных вычислений, особенно при работе с очень большими или малыми числами. Однако такие операции требуют значительных энергетических ресурсов. Например, одна только модель ChatGPT ежедневно потребляет столько энергии, сколько необходимо для работы 18 000 домохозяйств в США, что эквивалентно 564 МВт·ч. По оценкам, к 2027 году потребление энергии в ИИ-индустрии может достичь от 85 до 134 ТВт·ч ежегодно.
Алгоритм L-Mul решает эту проблему, заменяя сложные операции с плавающей запятой более простыми целочисленными сложениями, что значительно снижает нагрузку на энергоресурсы. В тестах алгоритм позволил сократить энергопотребление на 95% для тензорных операций и на 80% для скалярных, при этом сохраняя высокую точность. Падение производительности составило всего 0,07%, что считается приемлемой ценой за столь значительную экономию.
Наибольшие выгоды от использования L-Mul могут получить модели на основе трансформеров, такие как GPT, поскольку алгоритм легко интегрируется в их энергоемкие компоненты. Тесты на популярных моделях ИИ, таких как Llama и Mistral, показали даже улучшение точности в некоторых задачах. [пауза в цитировании]
Лютый бред. В смысле понятно, что целочисленные алгоритмы требуют меньше вычислений, но веса в матрицах распознавания не могут быть целочисленными. Авторы метода понимают это, и потому добавляют к своему оптимистическому сообщению - прекрасное "однако":
[возобновляю цитирование] Однако на пути к массовому внедрению L-Mul есть преграды. Главная проблема заключается в том, что для его работы требуется специализированное оборудование, а современные ускорители для ИИ не оптимизированы для этого метода. Тем не менее, уже ведутся разработки по созданию подходящего аппаратного обеспечения и программных интерфейсов для нового алгоритма.[конец цитирования]
...Такие дела...
---------------------------
*) 2024-05-29 Цифровой цирк вокруг т.н. "искусственного интеллекта" GPT дошел до точки тошноты.
https://alex-rozoff.livejournal.com/787345.html
Картинка: Борис Валехо
**) Дженсен Хуанг: будущее ИИ — за системами рассуждения, но нужно снизить стоимость вычислений
https://hightech.plus/2024/10/11/dzhensen-huang-budushee-ii--za-sistemami-rassuzhdeniya-no-nuzhno-snizit-stoimost-vichislenii
***) Новое решение может снизить энергопотребление ИИ на 95%
https://hightech.plus/2024/10/10/novoe-reshenie-mozhet-snizit-zatrati-energii-na-obuchenie-ii-na-95
Published on October 11, 2024 13:44
No comments have been added yet.
Александр Александрович Розов's Blog
- Александр Александрович Розов's profile
- 13 followers
Александр Александрович Розов isn't a Goodreads Author
(yet),
but they
do have a blog,
so here are some recent posts imported from
their feed.

