Русскоязычный мини-курс от Computer Science Center, рассказывающий об основах вероятностного языка построения моделей машинного обучения. В курсе рассмотрены байесовский подход к теории вероятностей, сопряженные распределения, задача выбора модели в машинном обучении, использование байесовского выбора модели в обобщенных линейных моделях регрессии и классификации, ЕМ-алгоритм, вариационный байесовский вывод, латентное размещение Дирихле, байесовская смесь гауссиан, байесовский метод главных компонент, байесовские и марковские сети, основные задачи и методы вывода в графических моделях, обучение графических моделей и структурный метод опорных векторов. Больше материалов по машинному обучению можно найти на сайте tproger.ru.