МОСКВА, 22 июн - РИА Новости/Прайм. Обучение нейросетей на "шумных", то есть поврежденных или искаженных данных приводит к генерации результатов с ошибками, самая известная из них на данный момент - некорректная генерация рук нейросетью Midjourney, рассказал РИА Новости директор по искусственному интеллекту и цифровым продуктам "Билайна" Константин Романов.
"Исходные шумные данные имеют ошибки, которые неизбежно воспроизводятся моделями. При этом при переиспользовании результатов одной модели в рамках другой эта ошибка будет только накапливаться. Одной из самых известных на данный момент ошибок стала некорректная генерация рук нейросетью Midjourney", - рассказал Романов.
Он добавил, что если "шумные" данные будут считаться корректными и публиковаться в открытых источниках, то все последующие модели, обучающиеся на них, посчитают их релевантными. "Таким образом, ошибки накапливаются в прогрессии. В конечном итоге исследуемая проблема может привести к тому, что сгенерированные моделями объекты не будут иметь какого-то смысла в человеческом понимании или в худших случаях не будут соответствовать нормам морали", - резюмировал эксперт.
Романов обращает также внимание на вопрос, для кого такие проблемы будут критичны в зависимости от области применения нейросетей. "Если генерация "некрасивых картинок" для личного пользования не ведёт ни к чему плохому, то некорректное описание медицинского диагноза и его лечения может стоить человеку жизни", - пояснил он.
Основным способом решения проблемы, по мнению эксперта, является качественный контроль исходных данных со стороны экспертов. Он предлагает ориентироваться на выходной результат модели - для определения качества работы нейросетей существуют специальные методики тестирования.
При перепечатке и цитировании (полном или частичном) ссылка на РИА "Новости" обязательна. При цитировании в сети Интернет гиперссылка на сайт http://ria.ru обязательна.
Комментарии отключены.