Roy wrote:
Также как и не обязательно знать теорию меры для работы с прикладной статистикой - достаточно ограничиться аксиоматикой Колмогорова.
Вы здесь несколько раз уже рекомендовали окунуться в теорию меры и функционального анализа (которые прекрасны сами по себе - я не спорю). Но не могу понять что может извлечь из них даже самый крутой Data Scientist?
Для работы с прикладнй статистикой и аксиоматики (формально) не надо знать. Современная приклaдная статистика - это (в основном) набор тестов для проверки гипотез. Аксиоматика Колмогоровской теории как раз и построена на теории меры, а точнее пространств с мерой (measure spaces). Например, среднее случайной величины (которая определяется как измеримая функция на вероятностном пространстве) - это Лебеговский интеграл, построенный по вероятностной мере. Теоремы фукционалного анализа "автоматически" ложатся на вероятностную теорию.
Я не очень понимаю, почему это востребовано. Востребованы Kernel Methods сами по себе. Однако прикладной Data Scientist (даже senior) использует ограниченный набор известных пространств и преобразований, которые за него открыли серьёзные товарищи учёные. Сам Data Scientist не будет придумывать новый класс Гильбертовых в пространств, чтобы применить их при очередном дата майнинге.
Ну как сказать. Во-первых, всегда полезно понимать, что ты делешь на уровне теории, а не просто вызывать соответсвующие функции из библиотеки. Во-вторых, если не устраивает какая-либо функция, надо писать свою, а здесь без теории никак. В-третьих, надо понимать, почему тот или иной метод работает. Когда работаешь с библиотеками (в опен соурс), то они как черный ящик (да и ошибки встречаются). Чтобы проводить диагностику, надо понимать, что ожидать на выходе. Когда занимаешся моделированием, надо понимать свойства диффуров, чтобы методы решения сохраняли некоторые своисйтва. Список можно продолжать.