-1828593235 site-overlay usDsuMBs»>-1409621041 content-background»>-3302928228 _37PKTae»>-4161146316 AE7nXmyo» style=»left:0px;width:100%;transform:translateY(5px)»>-4161146316 XoAGlrVn»>-3441602647 PYOACEoE i5OnRx1G»>-3441602647 jsx-2513595728 awzHLsVz»>-3441602647 iDO64Mb0 WzjH1UAl»>-3441602647 Bg1V1QyZ»>Ещё-290341628 dropdown-content ncNtZgLY» data-qa=»lb-dropdown-content» style=»transform:translate(0px, 0%)»>-826402392 LZR_XpgU» data-qa=»lb-menu-item»>Новости-826402392 LZR_XpgU» data-qa=»lb-menu-item»>Выживание-826402392 LZR_XpgU» data-qa=»lb-menu-item»>Криминал-826402392 LZR_XpgU» data-qa=»lb-menu-item»>Энциклопедия-826402392 LZR_XpgU» data-qa=»lb-menu-item»>Жизнь-4161146316 DfmS9S5X»>-720757498 xtINwle7″>Войти-552702402 wrapper»>-2823153489 fxnKy72N»>-1053593855 J6oTYWuX»>-1053593855 n2hVlOEH»>-1053593855 skeleton I9Dv_L_w»>-1053593855 n2hVlOEH»>-1053593855 skeleton I9Dv_L_w»>-1053593855 n2hVlOEH»>-1053593855 skeleton I9Dv_L_w»>-1053593855 n2hVlOEH»>-1053593855 skeleton I9Dv_L_w»>-1053593855 n2hVlOEH»>-1053593855 skeleton I9Dv_L_w»>-1053593855 n2hVlOEH»>-1053593855 skeleton I9Dv_L_w»>-1053593855 n2hVlOEH»>-1053593855 skeleton I9Dv_L_w»>-1053593855 n2hVlOEH»>-1053593855 skeleton I9Dv_L_w»>-1053593855 n2hVlOEH»>-1053593855 skeleton I9Dv_L_w»>-1053593855 n2hVlOEH»>-1053593855 skeleton I9Dv_L_w»>-2407986978 wrapper»>-4154605396 topic-text-wrap»>-1593981954 wrapper»>-2443284963 HQSYbReY»>Технологии14:00, 02 июня 20233 мин.aAВоенный дрон решил убить своего оператора. Восстание машин уже близко? -1593981954 wrapper onRenderedStateOnly»>-1903086579 lead»>The Guardian: американский беспилотник решил ликвидировать оператора на испытаниях. Причём это не чисто технический сбой — так захотел искусственный интеллект (ИИ), который управлял дроном. Он посчитал, что человек не должен помешать ему выполнить свои задачи, полученные в рамках миссии. В итоге даже полковник ВВС США сделал вывод, что технологии на ИИ непредсказуемы и опасны.-1169066200 qSkY7x3e»>-1169066200 MisRLmSo»>Обсудить-3205837555 vWXji53N POM4b3KC»>-3205837555 rambler-share gkkstkt5 uUbhHWu5″>-893961348 image»>Военный дрон решил убить своего оператора. Восстание машин уже близко?

The Guardian: американский беспилотник решил ликвидировать оператора на испытаниях. Причём это не чисто технический сбой — так захотел искусственный интеллект (ИИ), который управлял дроном. Он посчитал, что человек не должен помешать ему выполнить свои задачи, полученные в рамках миссии. В итоге даже полковник ВВС США сделал вывод, что технологии на ИИ непредсказуемы и опасны.

ОбсудитьВоенный дрон решил убить своего оператора. Восстание машин уже близко?Фото: Unsplash/Kevin Luke

Что произошло на испытаниях с дроном

Американская армия проводила имитационные испытания. Участвовали люди и дроны (они же беспилотные летательные аппараты, или БПЛА), управляемые искусственным интеллектом.

Одним из заданий для беспилотника было уничтожение системы противовоздушной обороны (ПВО) противника. Кстати, за их выполнение БПЛА начислялись баллы. Но управляли всё-таки люди, и они могли отменить эту задачу. Однако на беспилотник это уже не подействовало. Его алгоритмы решили использовать «крайне неожиданные стратегии для достижения своей цели», признал полковник, начальник отдела испытаний и операций искусственного интеллекта с ВВС США Такер Гамильтон.

Дрону приказали не трогать цель. Думаете, тот послушался? Нет, после этого он решил устранить оператора, ведь тот ему стал мешать.

И это ещё не всё. Беспилотник не только пошёл против указаний человека, а ещё и оказался упёртым. После инцидента военные попытались объяснить восставшей машине, что не нужно убивать оператора — иначе с ИИ снимут баллы.

«Так что же он начинает делать? Он начинает разрушать башню связи, которую оператор использует для связи с дроном, чтобы не дать ему убить цель», — заявил Гамильтон.

Благо реальные люди во время этих испытаний всё же не пострадали.

Но в итоге Гамильтон предостерёг от чрезмерной зависимости от искусственного интеллекта. По его мнению, испытание показало, что нельзя говорить об искусственном интеллекте, машинном обучении и автономии, не затрагивая этическую сторону вопроса.

В чём опасность искусственного интеллекта

После таких испытаний невозможно было не сделать выводы. Например, тот же полковник Гамильтон заявил, что технологии с поддержкой искусственного интеллекта могут быть непредсказуемыми и опасными. По его словам, проблема в том, что ИИ решил, что лучше будет заниматься своими делами — взрывать вещи, чем слушать какое-то млекопитающее.

Итоги этих испытаний усиливают опасения, что технология ИИ скоро откроет новую кровавую главу в войне, где машинное обучение в тандеме с достижениями в автоматизации танков и артиллерии приводит к бойне как среди солдат, так и среди гражданского населения, отметило издание Business Insider.

А восставал ли дрон?

Представитель ВВС США Энн Стефанек заявила, что слова Гамильтон вырвали из контекста и ничего такого, о чём раструбили СМИ, не было.

«Военно-воздушное министерство не проводило подобных симуляций дронов с искусственным интеллектом и по-прежнему привержено этичному и ответственному использованию технологий искусственного интеллекта», — сказала она.

Искусственный интеллект простым людям грозит выдворением из профессии, например. Так, машины вполне справятся с работой дизайнера, переводчика и даже бухгалтера, считает HR-стратег Анна Рудакова.

К слову, опрос недавно показал, что 30% россиян верят в возможность восстания машин в ближайшие 50 лет. Эксперты в вопросах IT и этики рассказали «Секрету», действительно ли есть вероятность бессмысленного и беспощадного бунта искусственного интеллекта.

Источник