Российские эксперты рассказали, как могут угрожать популярные нейросети
Мобильные новости
17-05-2025

К примеру, ранее в Microsoft запретили использовать своим пользователям китайскую нейросеть DeepSeek, что по мнению Ильи Гусева, специалиста по машинному обучению, является вполне нормальной мировой практикой.
К тому же DeepSeek - не единственный нейросетевой сервис, находящийся под запретом. При этом автор подметил, что сама по себе ИИ-модель не представляет опасности.
Денис Филиппов, генеральный директор MWS AI, считает, что, если использовать доверенную или даже собственную облачную инфраструктуру, то конфиденциальность данных можно обезопасить, применяя даже большие и популярные языковые модели.
А еще он заметил, что нейросетям типа ChatGPT можно доверять задачи, которые не содержат чувствительных данных, тогда угрозы отпадут сами по себе.
Однако эксперт «Лаборатории Касперского» Дмитрий Аникин считает, что нейросети все же представляют опасность из-за возможных ошибок в процессе разработки сервисов, либо кибератак.
Помимо российских специалистов, свое опасение ранее выразил Папа Римский Лев XIV.
Он рассказал, что искусственный интеллект по его мнению является большой проблемой человечества ввиду того, что ИИ создает огромные трудности для защиты труда человека, его достоинства и справедливости.
Подписывайтесь на нас в Telegram и ВКонтакте.
Прочитало: 378 человек