Основатель ИИ покидает Google и предупреждает об опасности

Критические размышления по поводу искуственного интеллекта доносятся со всех сторон: со вчерашнего дня к скептикам присоединился и Джеффри Хинтон, один из создателей данной технологии. Он покинул пост вице-президента Google в связи с опасениями по поводу утраты контроля над ИИ со стороны человечества в будущем - и своим шагом он намерен объявить об этом во всеуслышание. По словам Хинтона, многие уже в скором времени 'не смогут распознать, где правда, а где ложь'. Обозреватели высказывают свою обеспокоенность.

показать/скрыть все цитаты
La Repubblica (IT) /

Кому не знать, как крёстным отцам ИИ

Джеффри Хинтон - ещё один специалист по ИИ, предупреждающий о возможной опасности. Одним из первых стал Йошуа Бенджио, подписавший петицию о введении моратория на обучение искусственного интеллекта. La Repubblica призывает прислушаться к их голосам:

«Бенджио и Хинтон считаются 'крёстными отцами' ИИ. И уж если они обеспокоены, то и нам следовало бы держать уши востро. ... На кону - не только примат нашего интеллекта. Речь идёт и о будущем демократий, над которыми навис дамоклов меч дезинформации и фейковых фотографий, которые способен создать генеративный ИИ. Физик Роберт Оппенгеймер, работавший над созданием атомной бомбы, говаривал: 'Когда учёный видит нечто, что кажется ему техническим открытием, он хватается за это 'нечто', осуществляет его и только потом задаёт вопрос, какое применение найдёт открытие'. Таковым было кредо Хинтона, ставшее его крестом.»

El País (ES) /

Назад дороги нет!

Самое время приготовиться к приходу новой эпохи, - пишет El País:

«Те, кто тестирует эти технологии, восхищены их бесконечными возможностями. Но те, кто непосредственно ими занимается, чётко видят перед собой перспективу глобального хаоса, который эти технологии вполне способны вызвать. ... Как показывает история, все усилия по уменьшению распространения и злоупотребления новыми технологиями бесполезны: ядерное оружие распространяется и по сей день. ... Том Зибель, глава одного из крупнейших концернов, занимающихся искусственным интеллектом, обозначил риски как 'устрашающие'. ... Недавняя инициатива группы экспертов, предлагающих ввести мораториум на дальнейшее обучение ИИ, демонстрирует, что даже ведущие специалисты придерживаются того же мнения, что и многие другие, кто только строит догадки, а именно: мы не готовы к новой реальности. ... А поэтому нам нужно как можно быстрее овладевать новыми знаниями, ведь обратной дороги нет.»

Le Temps (CH) /

Может ли выйти из-под контроля военная техника?

Американская IT-фирма Palantir опубликовала на YouTube видео, в котором демонстрирует свою инновативную разработку Palantir Artificial Intelligence Platform, созданную для военных целей. Le Temps пишет о том, что сие изобретение таит в себе немало опасностей:

«Это очень близко к реальности, а Palantir, похоже, смог продвинуться достаточно далеко. ... Системы 'в этом строго регламентированном и чувствительном контексте должны находиться под контролем, чтобы гарантировать их использование законным и этичным образом', - обещает американская компания в своём видеоролике. Однако нет никакой уверенности в том, что в реальности эти требования будут строго соблюдаться. Поэтому не исключена такая ситуация, при которой в армии всё больше и больше решений будет приниматься искусственным интеллектом или, по крайней мере, на основе сгенерированных им сценариев. Со вполне реальным риском потери контроля над ситуацией.»