ИИ может стать опасным, если передать ему возможность управлять системами - эксперт

МОСКВА, 25 ноя - РИА Новости. Искусственный интеллект и нейросети могут нести угрозу в том случае, если человек передаст им возможность управлять системами, например диспетчеризацией полетов в аэропорту, таким мнением с РИА Новости поделился руководитель департамента машинного обучения и искусственного интеллекта "Билайна" Дмитрий Ермилов.

"Нейросети, на мой взгляд, не представляют угрозы​​​. Это математическая функция, которая не может ничего сделать без внешнего воздействия. Потенциальная угроза появляется, если отдать управление процессами алгоритмам ИИ. Например, если отдать диспетчеризацию полетов в аэропорту ИИ, то может произойти ошибка. Намеренно ли? Нет. Это статистическая ошибка, которая всегда присутствует в моделях машинного обучения", - сказал Ермилов.

При этом эксперт сомневается в том, что в ближайшее время это будет реалистичным сценарием развития. Пока что, по его мнению, процент задач, которые ИИ выполняет лучше, чем люди, не превышает 7%.

Ермилов объяснил, что все большие лингвистические модели, такие как ChatGPT разных версий, GigaChat от "Сбера", YandexGPT, обучаются выполнять набор типичных задач: ответы на вопросы, выполнение арифметических операций, генерация кода и так далее.

В свою очередь, Q* - разработка OpenAI, которую обучили решать задачи из начальной математики - справляется с ними, потому что они довольно шаблонные и делятся на несколько типов. "Алгоритм учится искать этот тип задачи в тексте и выполнять операцию над соответствующими числами. Другими словами, мы наблюдаем ожидаемое развитие больших лингвистических моделей в сторону расширения их функциональности", - резюмировал он.

Ранее в ноябре агентство Рейтер со ссылкой на источники сообщило, что перед решением уволить Сэма Альтмана с поста гендиректора OpenAI, разработчика чат-бота ChatGPT, совет директоров компании получил письмо от исследователей компании с предупреждением об опасном открытии, связанном с ИИ. Уточнялось, что OpenAI достигла прогресса в разработки своей системы Q*, и в компании полагают, что она может быть прорывом на пути к созданию общего искусственного интеллекта (AGI), или "суперинтеллекта".

При перепечатке и цитировании (полном или частичном) ссылка на РИА "Новости" обязательна. При цитировании в сети Интернет гиперссылка на сайт http://ria.ru обязательна.

Другие новости

Комментарии отключены.