Наверх

Ложь искусственного интеллекта: как шумиха в триллион долларов убивает человечество

Искусственный интеллект должен учитывать суждения человека, чтобы избежать юридических рисков.

29.01.2025
18:56
Ложь искусственного интеллекта: как шумиха в триллион долларов убивает человечество

Такие компании, как Google, OpenAI и Anthropic, занимающиеся искусственным интеллектом, хотят, чтобы вы верили, что мы находимся на пороге создания искусственного общего интеллекта (AGI) — мира, в котором инструменты ИИ смогут превзойти людей в мышлении, выполнять сложные профессиональные задачи без усилий и открывать новые горизонты автономного интеллекта. Google только что повторно нанял основателя Character.Компания OpenAI, занимающаяся искусственным интеллектом, недавно выпустила свою первую модель «рассуждения», а генеральный директор Anthropic Дарио Амодей говорит, что AGI может быть создан уже в 2026 году.

Но вот неприятная правда: в стремлении к созданию сверхразумного ИИ в таких важных областях, как медицина, юриспруденция, ветеринария и финансовое планирование, ИИ не просто «ещё не достиг этого», он может никогда этого не достичь.

Неопровержимые факты о недостатках искусственного интеллекта

В этом году исследователи из Университета Пердью представили исследование, которое показало, что ChatGPT в 52% случаев неправильно отвечает на вопросы по программированию. В других не менее важных категориях GenAI справляется ненамного лучше.

Когда на кону здоровье, благосостояние и благополучие людей, нынешние высокие показатели отказов платформ GenAI неприемлемы. Суровая правда заключается в том, что решить проблему точности будет крайне сложно.

Недавнее исследование, проведённое в Джорджтаунском университете, показывает, что повышение качества ИИ всего на 10% может обойтись в ошеломляющую сумму в 1 триллион долларов. Но даже в этом случае ИИ будет далёк от надёжности, необходимой в ситуациях, когда на кону стоит жизнь. «Последняя миля» точности, на которой ИИ становится бесспорно более безопасным, чем эксперт-человек, будет достигаться гораздо сложнее, дороже и дольше, чем принято считать.

Неточность ИИ имеет не только теоретические или академические последствия. 14-летний мальчик недавно обратился за советом к чат-боту с ИИ, и вместо того, чтобы направить его к ресурсам по охране психического здоровья или хотя бы к обычным людям, ИИ убедил его покончить с собой. К сожалению, он так и сделал. Его семья подала в суд — и, скорее всего, выиграет дело, — потому что ответ ИИ не был просто «галлюцинацией» или милой ошибкой. Это было катастрофически, и это исходило от системы, которая была абсолютно уверена в своей неправоте. Как и безрассудный «Клифф Клэвин» (который поставил весь свой выигрыш в «Своей игре» на телешоу «Весёлая компания»), ИИ полон уверенности, когда выдаёт совершенно неправильный ответ.

Механический турок 2.0 — с изюминкой

Сегодняшняя шумиха вокруг ИИ напоминает печально известного «Механического турка» XVIII века: якобы играющего в шахматы автомата, внутри которого на самом деле был спрятан человек. Современные модели ИИ тоже скрывают неприглядную тайну — они в значительной степени полагаются на человеческий ввод данных.

От аннотирования и очистки обучающих данных до модерации контента на выходе — десятки миллионов людей по-прежнему вовлечены практически в каждый этап развития генеративного ИИ, но крупные компании, занимающиеся базовыми моделями, не могут позволить себе признать это. Если бы они это сделали, то признали бы, как далеки мы от настоящего ИИ. Вместо этого эти платформы придерживаются стратегии «притворяйся, пока не получится», привлекая миллиарды на покупку дополнительных графических процессоров, опираясь на сомнительное обещание, что грубая сила волшебным образом приведёт к созданию ИИ.

Это пирамидальная схема хайпа: убедить общественность в том, что ИИ неизбежен, обеспечить масштабное финансирование, построить больше гигантских центров обработки данных, которые потребляют больше энергии, и надеяться, что каким-то образом увеличение вычислительных мощностей поможет преодолеть разрыв, который, по мнению честной науки, никогда не будет преодолён.

Это до боли напоминает шумиху вокруг Alexa, Cortana, Bixby и Google Assistant всего десять лет назад. Пользователям говорили, что голосовые помощники захватят мир в течение нескольких месяцев. Однако сегодня многие из этих устройств пылятся на полках, в основном их используют для установки кухонных таймеров или для того, чтобы узнать погоду на день. Великой революции так и не произошло, и это предостерегающий пример для сегодняшних ещё более грандиозных обещаний в области искусственного интеллекта.

Защищая себя от ответственности

Почему крупные платформы искусственного интеллекта не могут просто признать правду о своей точности? Потому что это откроет шлюзы ответственности.

Признание фундаментальных ошибок в рассуждениях ИИ стало бы неопровержимым доказательством в суде, как в трагическом случае с 14-летним мальчиком. Когда на кону триллионы долларов, ни один руководитель не захочет предоставить адвокату истца неопровержимое доказательство: «Мы знали, что это опасно, но всё равно отправили это».

Вместо этого компании прибегают к маркетинговому пиару, называя эти смертельные ошибки «галлюцинациями», как будто это приемлемый компромисс. Если бы врач сказал ребёнку, что тот должен покончить с собой, можно ли было бы назвать это «галлюцинацией»? Или лучше называть вещи своими именами — непростительной ошибкой, которая заслуживает полного юридического наказания и лишения права давать советы?

Плато внедрения искусственного интеллекта

Люди быстро поняли, что Alexa и другие голосовые помощники не могут достоверно отвечать на их вопросы, поэтому они просто перестали использовать их для всех задач, кроме самых базовых. Платформы с искусственным интеллектом неизбежно столкнутся с проблемой внедрения, ставя под угрозу своих нынешних пользователей и отпугивая других, которые могли бы положиться на них или попробовать их платформы.

Подумайте о плюсах и минусах беспилотных автомобилей. Несмотря на громкие обещания автопроизводителей — Tesla планирует запустить беспилотные роботакси к 2027 году — Goldman Sachs недавно снизил свои ожидания в отношении использования даже частично автономных транспортных средств. До тех пор, пока беспилотные автомобили не будут соответствовать гораздо более высоким стандартам, многие люди не будут полностью им доверять.

Точно так же многие пользователи не будут полностью доверять ИИ, даже если однажды он сравняется по интеллекту с человеком; он должен быть намного умнее даже самого умного человека. Других пользователей будет успокаивать способность ИИ отвечать на простые вопросы, но они будут разочарованы, когда столкнутся с серьёзными запросами. Для обеих групп недостатки ИИ не сделают его востребованным инструментом.

Необходимый стержень: включение человеческого суждения

Эти несовершенные платформы ИИ нельзя использовать для выполнения важных задач, пока они либо не достигнут мифического статуса AGI, либо не будут дополнены надёжными человеческими суждениями.

Учитывая прогнозы расходов в триллионы долларов, ущерб, наносимый окружающей среде огромными центрами обработки данных, и растущее число человеческих жертв, выбор очевиден: поставить человеческий опыт во главу угла. Давайте перестанем притворяться, что ИИ уже не за горами. Это ложное представление обманывает одних людей и буквально убивает других.

Вместо этого используйте ИИ, чтобы расширить возможности людей и создать новые рабочие места, где человеческое суждение будет ограничивать работу машин. Сделайте так, чтобы эксперты были на виду, а не прятались за дымовой завесой корпоративной бравады. Пока ИИ не достигнет почти идеальной надёжности, профессионалы-люди незаменимы. Пора прекратить шумиху, взглянуть правде в глаза и построить будущее, в котором ИИ будет служить человечеству, а не подвергать его опасности

Источник: TechRadar
Подпишитесь на наши новости:
Нажимая кнопку "Подписаться", вы даете согласие на обработку персональных данных (пользовательское соглашение)