<р> Свойства ядра разнообразны и не обязательно полуопределены, что означает, что структура, стоящая за ним, может выходить за рамки традиционного пространства внутренних произведений и переходить к более общему пространству Гильберта повторного ядра (RKHS). В байесовской теории вероятностей ядерные методы становятся ключевым компонентом гауссовых процессов, где ядерная функция называется функцией ковариации. В прошлом ядерные методы традиционно использовались для задач контролируемого обучения, которые обычно включали векторное входное пространство и скалярное выходное пространство. В последние годы эти методы были расширены для решения задач с множественными результатами, таких как многозадачное обучение. р>Внедрение методов ядра не только повышает производительность различных обучающихся машин, но и открывает новые перспективы для теоретической основы машинного обучения. р>
x'
, нам необходимо выучить скалярную оценку значения _f(x')
, и эта оценка основана на на обучающем наборе S
. Этот обучающий набор состоит из n
пар вход-выход, представленных как S = (X, Y) = (x1, y1), …, (xn, yn)
. Распространенным методом оценки является использование симметричной и положительной двумерной функции k(⋅, ⋅)
, часто называемой функцией ядра.
р>
Проблема контролируемого обучения заключается в том, как эффективно обучаться на основе известных пар вход-выход и применять это обучение к неизвестным точкам данных. р>
F
содержится в повторяющемся ядерном гильбертовом пространстве Hk
. Свойства повторяющегося ядра гильбертова пространства делают его еще более привлекательным. Во-первых, свойство «повторяемости» здесь гарантирует, что мы можем выразить любую функцию через линейную комбинацию функций ядра. Во-вторых, эти функции находятся в пределах замыкания линейных комбинаций в заданных точках, что означает, что мы можем строить линейные и обобщенные линейные модели. В-третьих, квадратную норму этого пространства можно использовать для измерения сложности функции.
р>
Пространство Гильберта с повторяющимся ядром не только обеспечивает гибкость в представлении функций, но и предоставляет приемлемую основу для баланса между сложностью модели. р>
λ
определяет, насколько сильно следует штрафовать сложность и нестабильность в повторяющемся ядре гильбертова пространства.
р>
<р> На основе объединения этих теорий принят метод оценки повторного ядра гильбертова пространства, позволяющий перейти от традиционного взгляда к байесовской перспективе. Поэтому, будь то регуляризация или байесовский вывод, мы в конечном итоге можем получить приблизительно эквивалентные оценки. Эта взаимная связь, несомненно, демонстрирует потенциал ядерных методов в разработке разнообразного семейства моделей машинного обучения. р> <р> Станут ли эти методы важными вехами в развитии машинного обучения в будущем, по мере роста объемов данных и вычислительной мощности? р>Таким образом, мы можем не только получить достоверные оценки, но и значительно снизить риск переобучения. р>