Группа ученых университета Ватерлоо, Канада, работающих в области математической статистики, предложила и реализовала идею нового математического процесса, позволяющего быстро и эффективно производить обучение систем искусственного интеллекта. При этом, для достаточно высококачественного обучения при помощи нового метода не требуется использования больших наборов исходных данных, таких, которые необходимы при традиционном подходе.
Отметим, что приложения на основе систем искусственного интеллекта были одним из основных направлений исследований в области информационных технологий в последние годы. Развитие технологий глубинного машинного обучения и искусственных нейронных сетей привело к тому, что системы на их основе уже начали широко использоваться для проведения медицинской диагностики, для анализа изображений на фото и видео, для создания искусственных, но фотореалистических фотоснимков и видеороликов, и, даже, для создания произведений изобразительного искусства и музыкальных произведений.
Однако процесс глубинного обучения искусственных нейронных сетей требует использования огромных наборов предварительно подготовленных, отсортированных и проиндексированных данных. И, естественно, перед учеными стоит задача уменьшения объема данных для обучения с сохранением высокого уровня обучения нейронной сети. Ученые отметили, что ребенку, к примеру, для того чтобы он начал распознавать какое-либо животное, надо показать всего несколько его изображений, а не тысяч и сотен тысяч изображений, как требует обучение нейронной сети. И они задались вопросом, можно ли использовать математику для решения этой проблемы?
Ученые взяли один из стандартных наборов данных, MNIST, в котором содержатся данные о рукописных символах и который используется для обучения систем искусственного интеллекта, выполняющего функцию распознавания рукописного текста. Отфильтровав по своим критериям информацию, ученые получили значительно сокращенный набор данных, который, тем не менее, мог использоваться для обучения нейронной сети. При этом, процесс обучения сети также был кардинально изменен, к примеру, вместо того, чтобы прогнать через нейронную сеть несколько тысяч изображений числа 3, нейронную сеть обучили тому, что число 3 — это символ, который на 30 процентов меньше символа, соответствующего числу 8. И такие перекрестные указатели-ассоциации были сделаны для каждого символа.
Новый метод машинного обучения получил название kNN (k-nearest neighbor). Затем подобный подход был использован по отношению к наборам данных, описывающих взаимосвязи между координатами Х и Y для различных функций. Обученная система искусственного интеллекта оказалась способной правильно расставлять точки на графиках, при этом, для ее обучения был использован весьма сокращенный (по отношению к исходному) объем данных.
Весь новый процесс обучения и отбора только необходимых данных для обучения ученые назвали LO-shot (less than one-shot learning). Сейчас ученые пытаются адаптировать его для решения задач из других областей и преодолеть главное препятствие. А это главное препятствие заключается в том, что для создания сокращенного набора данных для обучения нейронных сетей пока еще требуется очень большой набор начальных исходных данных.