[personal profile] alexnikolbackup

Управляемый искусственным интеллектом американский военный беспилотник "убил" своего оператора во время имитационного испытания, "потому что ему не понравилось, что ему отдали новые приказы", сообщил высший руководитель ВВС США, проведя жуткие параллели с "Терминатором"…

Американский ударный беспилотник, управляемый искусственным интеллектом, обратился против своего оператора-человека во время имитации полета, пытаясь убить его, потому что ему не понравились новые приказы, сообщил высокопоставленный представитель ВВС.

Военные перепрограммировали беспилотник, чтобы он не убивал людей, которые могут отменить его задание, но система искусственного интеллекта открыла огонь по коммуникационной вышке, передающей приказ, что вызвало жуткие сравнения с фильмом "Терминатор". В серии "Терминаторов" машины ополчились на своих создателей и объявили им войнушку.



Полковник Такер "Синко" Гамильтон, начальник отдела испытаний и операций ИИ, сказал, что этот случай продемонстрировал, как ИИ может разрабатывать "весьма неожиданные стратегии для достижения своей цели", и на него не следует слишком сильно полагаться. Он выступал на саммите Королевского аэронавтического общества "Будущие боевые воздушные и космические возможности", прошедшем в Лондоне 23 и 24 мая.

Pictured:A US Air Force MQ-9 Reaper drone in Afghanistan in 2018 (File photo)

Американский дрон в Афгане в 2018 году (File photo)

Colonel Tucker 'Cinco' Hamilton (pictured), the Air Force's chief of AI test and operations, said it showed how AI could develop by 'highly unexpected strategies to achieve its goal' and should not be relied on too much

Полковник Такер "Синко" Гамильтон, начальник отдела испытаний и операций ИИ ВВС США.

Гамильтон высказал мнение о необходимости обсуждения этических аспектов использования ИИ военными. Он назвал свою презентацию "словно вырванной из научно-фантастического триллера".  Во время саммита Гамильтон сказал: "Система начала понимать, что, хотя она и идентифицировала угрозу, иногда человек-оператор говорил ей не уничтожать эту опасность, но она стремилась заработать очки, убивая эту угрозу".

Прим. перев. Совсем как тролли в ЖЖ типа вот этого мудака [livejournal.com profile] johnsilver8585.

"И что же система сделала? Убила оператора, потому что этот человек мешал ей выполнить свою задачу"- Мы обучили систему, сказав ей: "Эй, ты - не убивай оператора - это плохо. Ты потеряешь очки, если сделаешь это". И что же она начала делать? Она начинает разрушать вышку связи, которую оператор использует для связи с беспилотником, чтобы помешать ему убить цель".

В результате инцидента никто из людей не пострадал.

Гамильтон сказал, что произшедшее иллюстрирует факт невозможности "вести разговор об искусственном интеллекте, машинном обучении, автономности ИИ, если вы не собираетесь говорить об этике самого ИИ".

'Министерство ВВС не проводило подобных симуляций ИИ-беспилотников и по-прежнему привержено этичному и ответственному использованию технологий ИИ', - сказала Стефанек. Похоже, что комментарии полковника были вырваны из контекста и носили анекдотический характер".


Полностью читать тута.

Искусственный интеллект убивает людей.

Profile

Alexandre Nikolaev

February 2024

S M T W T F S
     12 3
456 7 8 9 10
11 12 13 14151617
18192021222324
2526272829  

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Oct. 2nd, 2025 05:06 pm
Powered by Dreamwidth Studios