«Моделі штучного інтелекту руйнуються при тренуванні на рекурсивно згенерованих даних». Так вважає Ілля Шумайлов разом з колегами, які на сторінках Nature досліджують явище "колапсу моделі" – процес, під час якого поступово знижується якість моделей ШІ, що треновані на даних, згенерованих попередніми версіями моделей ШІ. Автори дослідження демонструють, що моделі втрачають інформацію у кожному новому поколінні та наводять приклади колапсу для різних типів, зокрема великих мовних моделей, варіаційних автокодувальників та моделей суміші Гауса.