Новости технологий в Иркутской области | |
18.09.2024 |
Ученые предлагают создать глобальную систему надзора за ИИ, по мнению ИТ-эксперта Дмитрия Салко, нейросеть – это инструмент |
|
Ученые ряда стран, в числе которых США, Китай и Великобритания, подписали заявление, в котором предлагают создать глобальную систему надзора за ИИ, чтобы в дальнейшем избежать серьезных рисков. Комментирует директор иркутской компании Diagrun Digital Дмитрий Салко. В настоящее время ученые, некоторые из которых стояли у истоков создания искусственного интеллекта, опасаются, что нейросети за несколько лет могут превзойти человеческие возможности. В случае, если ИИ откроет для себя возможность к самообучению, контролировать технологию уже не удастся, а потому предлагается создать органы надзора за ней. Также ученые подчеркивают, что к катастрофе может привести и злонамеренное использование нейросетей. В числе авторов обращения – лауреаты премии Тьюринга Йошуа (эквивалент Нобелевской премии по информатике) Бенджио, Эндрю Яо и Джеффри Хинтон. Декларацию о сотрудничестве в оценке рисков ИИ подписали представители 28 стран, однако пока что дальше общих заявлений дело не пошло, пишет портал
– ИИ может генерировать идеи и решения, но выбирать из них то, которое пойдет в реализацию, он не может. Для этого нужно разрешение от человека и доступ ИИ к отправке идей на реализацию. Например, ИИ-судья может подготовить решение, но для того, чтобы это решение было принято к исполнению, нужен человек. ИИ-художник может нагенерировать миллион картинок, но выбрать подходящую и отправить ее на печать сможет только человек. Однако в некоторых областях, где нет непосредственного взаимодействия человека с человеком, ИИ уже сейчас теоретически может быть заменой человеку. Например, в телемедицине, где вы с врачом общаетесь в чатике, теоретически все общение может быть заменено на ИИ, а качество таких консультаций остается под вопросом. Но рекомендации по лечению от ИИ могут пойти в работу не потому, что ИИ такой умный, а потому что сами люди уберут преграду от реализации. ИИ уже сейчас может достаточно правдоподобно генерировать голос и видеоизображение человека в режиме онлайн и этими возможностями могут воспользоваться злоумышленники. К примеру, в общении с чиновниками по видеоконференцсвязи одного человека могут заменить на фейк и вложить ему в уста решения, которые остальные чиновники будут выполнять, думая, что выполняют поручения настоящего человека. Тут стоит бояться не ИИ, как такового, а доступа ИИ к отправке решений на исполнение без верификации. |