Извините, вы уже голосовали за эту статью!
1.7       12345 3 голоса
Ø
Жалоба:
 
Есть причина пожаловаться?

Статья добавлена 17 марта 2018, в субботу, в 05:09. С того момента...

1702
просмотра
0 добавлений в избранное
0 комментариев

Представлена в разделах:



Top 5 àвтора:

Ученые предупреждают о злоупотреблениях искусственного интеллекта

Автор: Леонтина
Тема:

Сообщение:
 
Написать автору
 

Исследование разработало сценарии злоупотреблений с участием автономных роботов и компьютерных программ

Эксперты предупреждают в исследовании о возможных злоупотреблениях в применении искусственного интеллекта власть имущими, преступниками и террористами. Технология может «создать новые или изменить существующие угрозы», - сказал соавтор работы Шон О Хейгеарт (Sean O hEigeartaigh) из Кембриджского университета. В 100-страничном анализе описываются различные сценарии угроз, например нападение с использованием робота-пылесоса. 

Представим себе, что такой умный агрегат контрабандно ввозится в министерство финансов и сначала выполняет обычные процессы очистки. Как только его программа распознавания лиц обнаруживает министра, происходит взрыв. Исследование показывает, «как может выглядеть мир в ближайшие пять-десять лет». 

Еще одним возможным применением искусственного интеллекта может стать автоматизация персонализированных «фишинговых» атак в Интернете. Например, преступник попытается использовать почтовое сообщение, чтобы получить  банковские реквизиты адресата. В будущем будет значительно сложнее выявлять «фишинговые» электронные письма как таковые. 

В политике, согласно исследованию, беспринципные лидеры уже используют данные, собранные через сети наблюдения, чтобы шпионить за своими людьми. Кроме того, фейковые видео могут манипулировать общественным мнением. Беспокойство ученых вызывает также использование автономных беспилотных летательных аппаратов для террора и автоматизированных кибератак преступными и государственными группами.

Источник: phys.org

 
 
 
 

Ответов пока нет.

Комментàрии 


Комментариев к этой статье ещё нет.

Пожалуйста, подождите!
Комментарий: