Чем шире искусственные нейросети входят в нашу жизнь, чем больше сообщений о странностях в их «поведении».
Специалисты по машинному обучению считают, что ИИ подвержен серьезному заболеванию – MAD.
Model Autophagy Disorder – синдром саморазрушения нейросети. Если ИИ длительное время обучается не на реальных данных, полученных от людей, а на генерациях других GPT, нейронная сеть, пытаясь их адаптировать, начинает деградировать и выходит из строя.
Как у всякой болезни, у MAD есть характерные симптомы:
– резкое падение точности прогнозов
– медленное обучение
- рост числа ошибок в процессе обучения.
MAD способен нести серьезную угрозу людям, нарушая функционирование цифровых платформ с интегрированным ИИ. Можно представить, что будет с беспилотным грузовиком на трассе, если его систему оценки дорожной ситуации настигнет MAD.
ИИ уже применяется в анализе визуальных данных КТ. Какой совет по лечению выдаст нейросеть, пораженная MAD?
Больная «нейронка» пропустит кибератаку или даже сама примет участие в ней. В алгоритмах, ответственных за финансовые стратегии, ошибки могут привести к неверной оценке рисков и серьезным инвестиционным потерям.
Можно ли защитить нейросеть от MAD?
Считается, что не стоит увлекаться использованием других ИИ для ее тренировки. Нейросеть нужно регулярно обновлять, используя механизмы очистки данных.
И конечно, внимательно наблюдать за качеством ее работы.