Насколько опасен ИИ и кто должен его контролировать?

Во вторник ряд ведущих экспертов в области искусственного интеллекта обнародовали обращение, в котором они указывают на опасности, которые несёт с собой эта технология, и сравнивают потенциальные риски с пандемией и ядерной войной. Среди подписантов обращения - Сэм Олтмэн, глава компании OpenAI, разработавшей ChatGPT. Он предлагает создать международное ведомство по контролю над ИИ - по аналогии с МАГАТЭ. Обозреватели в большинстве своём настроены скептично.

показать/скрыть все цитаты
The Spectator (GB) /

Даже ядерное оружие легче контролировать

Предложения разработчиков компании OpenAI едва ли можно считать достаточными, - отмечает The Spectator:

«Мощный компьютер - не столь уж редкая и отслеживаемая вещь, как урановая руда. Если сверхинтеллект и в самом деле настолько гибок, как об этом заявляют OpenAI и другие разработчики, то тогда налицо невероятный соблазн заняться мошенничеством и огромное число возможностей реализовать это стремление. ... В отличие от плохо закамуфлированных ракетных шахт во время Карибского кризиса, сегодня можно запросто куда угодно ввезти свои супер-системы на обыкновенном жёстком диске. То есть распространение их - проще пареной репы. ... Предложения по регулированию, выдвинутые компанией OpenAI, недостаточны, однако истинная заслуга Олтмэна сотоварищи заключается в том, что они вообще решились забить тревогу. Да, нам нужны новые идеи - и чем скорее, тем лучше.»

Der Spiegel (DE) /

Ответственность перекладывается на плечи политиков

По мнению публициста Саши Лобо, предостережения экспертов нацелены прежде всего на то, чтобы заранее снять с себя всякую ответственность. В своей колонке в журнале Der Spiegel он пишет:

«Искусственный интеллект - вещь могущественная, и вероятность того, что может произойти что-то нехорошее, весьма высока. А значит, всем, кто связан с его созданием и применением, куда практичнее сразу сыграть роль всезнающей Кассандры, поскольку в глазах общественности тот, кто предупреждает, редко оказывается виновником. Подобные предостережения со стороны элиты из сферы разработок искусственного интеллекта по меньшей мере отчасти перекладывают ответственность на плечи политиков. Если что-то вдруг стрясётся, то можно будет сказать: 'Мы рекомендовали вам ввести надлежащее регулирование, но вы пальцем о палец не ударили - что ж, теперь пожинайте плоды'.»

The Independent (GB) /

Называйте вещи своими именами!

The Independent также недоумевает по поводу того, что эти предостережения поступают от самих разработчиков:

«Предостережения о том, что ИИ может оказаться опасным, подобно пандемии, несут в себе риск того, что нам начнёт казаться, будто опасность, исходящая от искусственного интеллекта, - вещь естественная, вроде мутациии вируса. Однако любой коварный ИИ - результат осознанных решений разработчиков, а также, как правило, и самих компаний, подписавших это новое обращение с предостережениями. ... К кому же взывают эти компании? В конце концов, именно они и создают системы, способные уничтожить жизнь на планете. Это как если бы взломщик отчитывал вас за то, что у вас на дверях не слишком надёжные замки.»

Neue Zürcher Zeitung (CH) /

Столь опасная прозрачность

Neue Zürcher Zeitung анализирует линии конфликта в вопросе регулирования:

«Если компании OpenAI придётся раскрыть, каким образом она дрессирует свою систему ИИ, то она уже не будет выглядеть такой уж 'волшебной'. Во-вторых, конкуренты вполне могут воспользоваться её идеями. В-третьих, неясно, имелись ли у компании все необходимые права на данные, использованные при создании системы ИИ. В отношении ряда производителей программ искусственного интеллекта, работающих с визуальным контентом, уже инициированы иски со стороны художников. И касается это тех компаний, которые раскрыли, какие именно данные они использовали для тренировки своих систем. Да уж - прозрачность делает тебя уязвимее! ... Сложно добиться того, чтобы она была надёжной, корректной - и безопасной. Поэтому Олтмэн вправе проводить лоббистскую работу против подобных начинаний. А Евросоюз должен хорошенько продумать, какие правила и в самом деле необходимы, а какие - нет.»

News.bg (BG) /

Боязнь нового - это так по-человечески...

Прорывные технологии поначалу всегда встречались со скепсисом, - напоминает портал news.bg:

«На начальном этапе промышленной революции рабочие опасались того, что станки лишат их хлеба, однако на самом деле нововведение привело к значительному повышению качества жизни. Такой же скепсис люди проявляли и в отношении прививок. ... Электрификацию жилых посёлков многие тоже поначалу считали происками сатаны, а сегодня мы не можем представить себе жизни без электричества. ИИ улучшит нашу жизнь. Это означает, что благодаря использованию ИИ мы будем тратить гораздо меньше времени и энергии на выполнение той или иной работы - и сможем потратить это время на другие, возможно, более разумные и толковые вещи.»