gdgt

Skip to Content

Стив Возняк, принц Гарри и еще 800 человек хотят запретить «суперинтеллект» ИИ

Более 800 известных личностей, включая Стива Возняка и принца Гарри, а также ученых в области ИИ, бывших военных лидеров и руководителей компаний, подписали заявление с требованием запретить работы в области ИИ, которые могут привести к появлению суперинтеллекта, как сообщает The Financial Times. «Мы призываем к запрету разработки суперинтеллекта, который не будет снят до тех пор, пока не будет достигнут широкий научный консенсус о его безопасном и контролируемом развитии, а также широкая общественная поддержка», — говорится в заявлении.

Среди подписавших — представители различных отраслей и политических взглядов, включая исследователя ИИ и лауреата Нобелевской премии Джеффри Хинтона, бывшего советника Трампа Стива Бэннона, экс-председателя Объединенного комитета начальников штабов Майка Маллена и рэпера Will.i.am. Заявление исходит от Института будущего жизни (Future of Life Institute), который заявил, что развитие ИИ происходит быстрее, чем общество может осознать.

«Мы, на каком-то уровне, выбрали этот путь из-за компаний, занимающихся ИИ, их основателей и движущей ими экономической системы, но никто толком не спросил почти никого другого: «Действительно ли мы этого хотим?»», — сказал исполнительный директор института Энтони Агирре в интервью NBC News.

Общий искусственный интеллект (AGI) относится к способности машин рассуждать и выполнять задачи на уровне человека, в то время как суперинтеллект позволит ИИ делать вещи лучше, чем даже человеческие эксперты. Эта потенциальная возможность упоминалась критиками (и культурой в целом) как серьезную угрозу человечеству. Однако до сих пор ИИ оказался полезным только для узкого круга задач и постоянно не справляется со сложными задачами, такими как автономное вождение.

Несмотря на отсутствие недавних прорывов, такие компании, как OpenAI, вкладывают миллиарды в новые модели ИИ и центры обработки данных, необходимые для их работы. Генеральный директор Meta Марк Цукерберг недавно заявил, что суперинтеллект «уже маячит на горизонте», а генеральный директор X Илон Маск сказал, что суперинтеллект «происходит в реальном времени» (Маск также знаменито предостерегал о потенциальных опасностях ИИ). Генеральный директор OpenAI Сэм Альтман заявил, что ожидает появления суперинтеллекта не позднее 2030 года. Ни один из этих лидеров, ни кто-либо заметный из их компаний, не подписал заявление.

Это далеко не единственный призыв к замедлению развития ИИ. В прошлом месяце более 200 исследователей и общественных деятелей, в том числе 10 нобелевских лауреатов и несколько экспертов по искусственному интеллекту, выступили с экстренным призывом установить «красную линию» против рисков, связанных с ИИ. Однако это письмо касалось не суперинтеллекта, а опасностей, которые уже начинают проявляться, таких как массовая безработица, изменение климата и нарушения прав человека. Другие критики бьют тревогу по поводу потенциального пузыря на рынке ИИ, который в конечном итоге может лопнуть и обрушить экономику.