Физик-Лирик wrote:
Просветите по поводу графических моделей? Может оно и мне надо.
http://en.wikipedia.org/wiki/Graphical_models
Модель представляется в виде графа, где каждая вершина - random variable. Если две вершины соединены, то между ними существет зависимость. Таким образом можно добавлять знания о зависимостях в модель. А можно и наоборот - выявлять зависимости на основе данных.
Ну это моё дилетантское обьяснение
Насколько я понимаю, эта теория обобщает многие известные модели и предоставляет общий подход и framework. Частными случаями являются Bayesian network, Hidden Markov Model, Conditional Random Fields, Naive Bayes.
Вот эту книгу все рекомендуют:
http://www.amazon.com/Probabilistic-Gra ... cal+models
Физик-Лирик wrote:
Еще раз подчеркну. Для "обыкновенного" аналиста особо теорий не нужно. В основном - это умения пользоваться пакетами, понимая при этом, что эти методы делают. Теория больше понадобиться, если более в "научной" области и/или работаешь над моделями.
Чтобы до конца понимать, что эти пакеты делают - надо знать теорию, кмк. А то чувствуешь себя как в темноте, действуешь часто наугад. Я тут насмотрелся на случаи, когда тупо использует деревья или SVM независимо от задачи. Никто даже не заумывается, что модель может быть не нормальной. Анализ данных на bias не делается. Вобщем всё на коленке. Я не очень понимаю как без реальной теории и практики в базовой статистике это всё можно понять и "прочувствовать".
Кстати, насколько знание и опыт в традиционных статистичеких методах важны для Machine Learning? Я имею в виду confidence intervals tests, ANOVA, factor analysis и т.д.