Machine Learning again

Физик-Лирик
Уже с Приветом
Posts: 5106
Joined: 19 Oct 2004 01:46

Re: Machine Learning again

Post by Физик-Лирик »

Think_Different wrote:
Снежная Королева wrote:Gradient boosting machine
может он не понимает т.к. ты разговариваешь аббревиатурами?
GBM может быть еще geometric Brownian motion :)
Все-таки это к случайным процессам относится, да и придумано было намнОго раньше.
Alexandr wrote:
Физик-Лирик wrote: А на сколько я выгляжу?
не знаю, но пишите зрело :)
Если возраст мерить количеством г... , сидящим в голове в виде знаний, тогда глубокий старец. Помните как в известном анекдоте ... :D А Вы, позвольте узнать, как себя ощущаете? :lol:
ystar
Уже с Приветом
Posts: 1039
Joined: 27 Apr 2014 17:13
Location: USA

Re: Machine Learning again

Post by ystar »

Ещё вопрос у меня такое: как обстоит дела с тестированием, автоматизацией тестирования в ML? Имеет такое место быть, или не имеет смысла?
Deckel
Ник закрыт за хамство.
Posts: 357
Joined: 16 Feb 2014 18:34

Re: Machine Learning again

Post by Deckel »

ystar wrote:Ещё вопрос у меня такое: как обстоит дела с тестированием, автоматизацией тестирования в ML? Имеет такое место быть, или не имеет смысла?
В таком смысле http://scikit-learn.org/stable/modules/ ... ation.html" onclick="window.open(this.href);return false; или вы о чем?
blanko27
Уже с Приветом
Posts: 2264
Joined: 17 Jun 2003 04:41
Location: Just like US

Re: Machine Learning again

Post by blanko27 »

A/B testing и иже? :?
...а мы такой компанией, возьмем, да и припремся к Элис!
blanko27
Уже с Приветом
Posts: 2264
Joined: 17 Jun 2003 04:41
Location: Just like US

Re: Machine Learning again

Post by blanko27 »

Физик-Лирик wrote:А на сколько я выгляжу?
Как там в анекдоте про Василия Ивановича, лет на 300? :)
...а мы такой компанией, возьмем, да и припремся к Элис!
Физик-Лирик
Уже с Приветом
Posts: 5106
Joined: 19 Oct 2004 01:46

Re: Machine Learning again

Post by Физик-Лирик »

blanko27 wrote:
Физик-Лирик wrote:А на сколько я выгляжу?
Как там в анекдоте про Василия Ивановича, лет на 300? :)
:D
Не-е, я другой анектод имел в виду. Вот сейчас Коми придет и сразу вспомнит. Это как раз было по его части. :-)
ystar
Уже с Приветом
Posts: 1039
Joined: 27 Apr 2014 17:13
Location: USA

Re: Machine Learning again

Post by ystar »

Вот что прикольное, если брать уровень высокой абстракции, то многие моменты вполне себе понятны.
а вот если идти на уровень понимания и реализации - становится ничего не понятно.

Даже метод ближайших соседей, по сути надо подобрать коэффициенты правильно. но блин это как то странно, что вся суть метода сводится к подбиранию коэффициентов. хотя могу и ошибаться (до меня что-то плохо доходит)
Физик-Лирик
Уже с Приветом
Posts: 5106
Joined: 19 Oct 2004 01:46

Re: Machine Learning again

Post by Физик-Лирик »

ystar wrote:Вот что прикольное, если брать уровень высокой абстракции, то многие моменты вполне себе понятны.
а вот если идти на уровень понимания и реализации - становится ничего не понятно.

Даже метод ближайших соседей, по сути надо подобрать коэффициенты правильно. но блин это как то странно, что вся суть метода сводится к подбиранию коэффициентов. хотя могу и ошибаться (до меня что-то плохо доходит)
Так оно и есть на самом деле. Для алгоритмов математически доказывается существование решения соответствующих оптимизационных задач. На практике, однако, алгоритмы имеют ряд параметров, от выбора которых результат и зависит. Простой пример. Возьмём линейную регрессии. Математически - это оптимизация целевой функции в виде суммы квадратов ошибок. Решение легко записывается в матричном виде после нахождения и приравнивания к нулю соответствующих частных производных. Если нет коллинеарных переменных, то решение всегда существует и единственно. Все, математика закончена. Однако на практике полученное решение вовсе не означает, что оно "хорошее". Например, если нелинейную функцию аппроксимировать этой самой линейной регрессией. Далее возникает вопрос о количестве переменных, что делать с коллинеарностью, аутлайерами и т.п. С другими алгоритмами та же история.
Если почитать публикации по "моделированию", например, вычислительную физику, там схожа история. Читаешь - все просто. Типа вот уравнение, вот метод, запрограммировал - решил. Реалии, однако, совсем иные. Куча подводных камней, о которых, как правило, не пишут или упоминают вскользь. Собственно поэтому маш. обучение - реальный дейта сайнс (ударение на последнем слове).
ystar
Уже с Приветом
Posts: 1039
Joined: 27 Apr 2014 17:13
Location: USA

Re: Machine Learning again

Post by ystar »

Физик-Лирик wrote:
ystar wrote:Вот что прикольное, если брать уровень высокой абстракции, то многие моменты вполне себе понятны.
а вот если идти на уровень понимания и реализации - становится ничего не понятно.

Даже метод ближайших соседей, по сути надо подобрать коэффициенты правильно. но блин это как то странно, что вся суть метода сводится к подбиранию коэффициентов. хотя могу и ошибаться (до меня что-то плохо доходит)
Так оно и есть на самом деле. Для алгоритмов математически доказывается существование решения соответствующих оптимизационных задач. На практике, однако, алгоритмы имеют ряд параметров, от выбора которых результат и зависит. Простой пример. Возьмём линейную регрессии. Математически - это оптимизация целевой функции в виде суммы квадратов ошибок. Решение легко записывается в матричном виде после нахождения и приравнивания к нулю соответствующих частных производных. Если нет коллинеарных переменных, то решение всегда существует и единственно. Все, математика закончена. Однако на практике полученное решение вовсе не означает, что оно "хорошее". Например, если нелинейную функцию аппроксимировать этой самой линейной регрессией. Далее возникает вопрос о количестве переменных, что делать с коллинеарностью, аутлайерами и т.п. С другими алгоритмами та же история.
Если почитать публикации по "моделированию", например, вычислительную физику, там схожа история. Читаешь - все просто. Типа вот уравнение, вот метод, запрограммировал - решил. Реалии, однако, совсем иные. Куча подводных камней, о которых, как правило, не пишут или упоминают вскользь. Собственно поэтому маш. обучение - реальный дейта сайнс (ударение на последнем слове).
Вот как и ваше сообщение, вроде как понятно, но если в детали вникать начать, то и не все так уж и понятно
User avatar
Мальчик-Одуванчик
Уже с Приветом
Posts: 15526
Joined: 27 Sep 2007 22:53

Re: Machine Learning again

Post by Мальчик-Одуванчик »

ystar wrote: Вот как и ваше сообщение, вроде как понятно, но если в детали вникать начать, то и не все так уж и понятно
Так оно всегда и везде так: "Гладко было на бумаге, да забыли про овраги"
Физик-Лирик
Уже с Приветом
Posts: 5106
Joined: 19 Oct 2004 01:46

Re: Machine Learning again

Post by Физик-Лирик »

ystar wrote: Вот как и ваше сообщение, вроде как понятно, но если в детали вникать начать, то и не все так уж и понятно
Давайте вникать вместе. :D Пишите, обсудим.
blanko27
Уже с Приветом
Posts: 2264
Joined: 17 Jun 2003 04:41
Location: Just like US

Re: Machine Learning again

Post by blanko27 »

Физик-Лирик wrote:Давайте вникать вместе. :D Пишите, обсудим.
Где у него кнопка? :radio%:
...а мы такой компанией, возьмем, да и припремся к Элис!
User avatar
valchkou
Уже с Приветом
Posts: 4195
Joined: 27 Apr 2011 03:43
Location: Сергели ->Chicago

Re: Machine Learning again

Post by valchkou »

ystar wrote:
Физик-Лирик wrote:
ystar wrote:Вот что прикольное, если брать уровень высокой абстракции, то многие моменты вполне себе понятны.
а вот если идти на уровень понимания и реализации - становится ничего не понятно.

Даже метод ближайших соседей, по сути надо подобрать коэффициенты правильно. но блин это как то странно, что вся суть метода сводится к подбиранию коэффициентов. хотя могу и ошибаться (до меня что-то плохо доходит)
Так оно и есть на самом деле. Для алгоритмов математически доказывается существование решения соответствующих оптимизационных задач. На практике, однако, алгоритмы имеют ряд параметров, от выбора которых результат и зависит. Простой пример. Возьмём линейную регрессии. Математически - это оптимизация целевой функции в виде суммы квадратов ошибок. Решение легко записывается в матричном виде после нахождения и приравнивания к нулю соответствующих частных производных. Если нет коллинеарных переменных, то решение всегда существует и единственно. Все, математика закончена. Однако на практике полученное решение вовсе не означает, что оно "хорошее". Например, если нелинейную функцию аппроксимировать этой самой линейной регрессией. Далее возникает вопрос о количестве переменных, что делать с коллинеарностью, аутлайерами и т.п. С другими алгоритмами та же история.
Если почитать публикации по "моделированию", например, вычислительную физику, там схожа история. Читаешь - все просто. Типа вот уравнение, вот метод, запрограммировал - решил. Реалии, однако, совсем иные. Куча подводных камней, о которых, как правило, не пишут или упоминают вскользь. Собственно поэтому маш. обучение - реальный дейта сайнс (ударение на последнем слове).
Вот как и ваше сообщение, вроде как понятно, но если в детали вникать начать, то и не все так уж и понятно
кмк каждый должен заниматься своим делом, раз не понятно надо забить. Вот физик и прочие ученные должны понимать какую модель лучше заюзать и какие данные нужны под конкретную модель. Есть программисты которые понимают физика на уровне формул и могут закодить их, даже не понимая суть. Так же есть архитекторы которые могут предоставить платформу на которой можно поженить формулы с данными и родить результат.
если данные это биг дата, то архитектор становится биг дата архитектором, а программист, биг дата программистом.
я лично для себя выбрал путь биг дата архитектор и рядом. За физиками мне не угнаться, а простых программистов я перегнал.
На данный момент биг дата архитектор, клауд архитектор или типо того - очень в спросе потому как все меняется очень быстро и не понятно.
Все это устаканиться лет через 7-10 и потеряет актуальность, но пока проходим зону турбулентности, где каждый сусанин, который знает дорожку - на вес золота.
Т.е что бы максимизорать свою прибыль нужно найти свою нишу.
ystar - вы кто в этой пишевой цепочке?
ystar
Уже с Приветом
Posts: 1039
Joined: 27 Apr 2014 17:13
Location: USA

Re: Machine Learning again

Post by ystar »

valchkou wrote:
ystar wrote:
Физик-Лирик wrote:
ystar wrote:Вот что прикольное, если брать уровень высокой абстракции, то многие моменты вполне себе понятны.
а вот если идти на уровень понимания и реализации - становится ничего не понятно.

Даже метод ближайших соседей, по сути надо подобрать коэффициенты правильно. но блин это как то странно, что вся суть метода сводится к подбиранию коэффициентов. хотя могу и ошибаться (до меня что-то плохо доходит)
Так оно и есть на самом деле. Для алгоритмов математически доказывается существование решения соответствующих оптимизационных задач. На практике, однако, алгоритмы имеют ряд параметров, от выбора которых результат и зависит. Простой пример. Возьмём линейную регрессии. Математически - это оптимизация целевой функции в виде суммы квадратов ошибок. Решение легко записывается в матричном виде после нахождения и приравнивания к нулю соответствующих частных производных. Если нет коллинеарных переменных, то решение всегда существует и единственно. Все, математика закончена. Однако на практике полученное решение вовсе не означает, что оно "хорошее". Например, если нелинейную функцию аппроксимировать этой самой линейной регрессией. Далее возникает вопрос о количестве переменных, что делать с коллинеарностью, аутлайерами и т.п. С другими алгоритмами та же история.
Если почитать публикации по "моделированию", например, вычислительную физику, там схожа история. Читаешь - все просто. Типа вот уравнение, вот метод, запрограммировал - решил. Реалии, однако, совсем иные. Куча подводных камней, о которых, как правило, не пишут или упоминают вскользь. Собственно поэтому маш. обучение - реальный дейта сайнс (ударение на последнем слове).
Вот как и ваше сообщение, вроде как понятно, но если в детали вникать начать, то и не все так уж и понятно
кмк каждый должен заниматься своим делом, раз не понятно надо забить. Вот физик и прочие ученные должны понимать какую модель лучше заюзать и какие данные нужны под конкретную модель. Есть программисты которые понимают физика на уровне формул и могут закодить их, даже не понимая суть. Так же есть архитекторы которые могут предоставить платформу на которой можно поженить формулы с данными и родить результат.
если данные это биг дата, то архитектор становится биг дата архитектором, а программист, биг дата программистом.
я лично для себя выбрал путь биг дата архитектор и рядом. За физиками мне не угнаться, а простых программистов я перегнал.
На данный момент биг дата архитектор, клауд архитектор или типо того - очень в спросе потому как все меняется очень быстро и не понятно.
Все это устаканиться лет через 7-10 и потеряет актуальность, но пока проходим зону турбулентности, где каждый сусанин, который знает дорожку - на вес золота.
Т.е что бы максимизорать свою прибыль нужно найти свою нишу.
ystar - вы кто в этой пишевой цепочке?
да никто по сути, ведь ничего толкового пока не знаю, да и ничего делать не умею. но ближе к программисту.
User avatar
Kolbasoff
Уже с Приветом
Posts: 3481
Joined: 02 Jan 2005 22:10

Re: Machine Learning again

Post by Kolbasoff »

Deckel wrote:How to Get a Data Science Job: A Ridiculously Specific Guide

http://brohrer.github.io/get_data_science_job.html" onclick="window.open(this.href);return false;
Дата саентистом таким образом не стать, по крайней мере в серьезной конторе, а дата погромистом можно, я именно так и стал, прокачав дата стэк на пасеке летом и сделав маленький проект на скале/спарке. Главный дата саентист у нас в отделе - пхд в метематике из мита, статьи, патенты, витает высоко, техлид группы - пхд в компсай. И 6 наладчиков-монтажников повышенной квалификации. Никаких аджайлов и бегающих вокруг стола (буквально) погонял - пиэмов, с вопросами типа "ты поставил 4 часа на этот таск, а уже 6 прошло и таск все еще не закрыт, что случилось? Что, ты уже сделал таск? А почему не поменял его статус? Немедленно поменяй, я должен видеть прогресс". Блин, как вспомню так вздрогну.
Физик-Лирик
Уже с Приветом
Posts: 5106
Joined: 19 Oct 2004 01:46

Re: Machine Learning again

Post by Физик-Лирик »

Kolbasoff wrote: Никаких аджайлов и бегающих вокруг стола (буквально) погонял - пиэмов, с вопросами типа "ты поставил 4 часа на этот таск, а уже 6 прошло и таск все еще не закрыт, что случилось? Что, ты уже сделал таск? А почему не поменял его статус? Немедленно поменяй, я должен видеть прогресс". Блин, как вспомню так вздрогну.
Блин, счастливчик. :D Пойду сейчас материться. :oops:
Скажите, а аджайл - это действительно новая философия работы или просто продукт для оправдания абсолютно ненужной работы ПМ-ов? У меня вообще в последние годы устойчивая аллергия на ПМ-ов. Я в начале года уже рассказывал историю про ПМ Петровича. Сейчас новые петровичи появились. Ну ладно бы сами развлекались, но зачем других доставать? У меня когда был аджайл-тренинг мне стали популярно объяснять, как все круто. На мой наивный вопрос, а собственно чем все это отличается от того, что я ещё лет ...-дцать назад делал, что-то невнятно пробурчали, добавив, что у нас вообще мало времени на вопросы осталось. Типа слушайте и выполняйте политику партии. А вот кто против партии попрет ... :sadcry:
Физик-Лирик
Уже с Приветом
Posts: 5106
Joined: 19 Oct 2004 01:46

Re: Machine Learning again

Post by Физик-Лирик »

ystar wrote: да никто по сути, ведь ничего толкового пока не знаю, да и ничего делать не умею. но ближе к программисту.
Значит так. Берете какой-нибудь алгоритм. Вам, я так понимаю, метод ближайшего соседа по душе. Отлично. Берете этот метод и нам здесь подробно его объясняете. Но не с точки зрения "программирования" (хотя можно и попробовать запрограммировать), а с точки зрения философии маш. обучения. Типа почему работает, как сходится (посмотрите на Инете оценки сходимости и сравнение с Байесовской ошибкой), какую метрику выбрать, особенно в случае многомерных пространств, как вообще в многомерных пространствах будет (или не будет) работать. С точки зрения теоремы о разложения средней ошибки на вариацию и квадрата байеса, как метод работает. Как уменьшить вариацию? Как изменить бауйес? Потом всё в студию. Заодно и мы что-то новое выучим. :D
User avatar
Kolbasoff
Уже с Приветом
Posts: 3481
Joined: 02 Jan 2005 22:10

Re: Machine Learning again

Post by Kolbasoff »

Физик-Лирик wrote:Блин, счастливчик. :D Пойду сейчас материться. :oops: Скажите, а аджайл - это действительно новая философия работы или просто продукт для оправдания абсолютно ненужной работы ПМ-ов?
Мне реально сфортило в этот раз. Старомодные кубиклы с цветами а не галдящая курятня-опен спейс, flex hours, wfh 2 раза в неделю, начальник толковейший чувак и работа очень интересная. Попытаюсь угнаться за физиками - "четверть века с плеч долой, в омут танца с головой - молодой человек, потанцуйте же со мной!". Работы обарха и датарха меня совсем не возбуждают, а вот возможность побиться мозгами с такими как Вы дает истинную радость.

Что касается аджайла, то дружище АццкоМото как-то сказал резко и точно, по-техасски: это способ заставить бегать марафон короткими спринтами. Соковыжималка это, короче. За 8 последних лет и последние 3 года консалтинга в 5 проектах с разными фирмами, это в первый раз когда аджайла нет. Вот свезло так свезло.
Физик-Лирик
Уже с Приветом
Posts: 5106
Joined: 19 Oct 2004 01:46

Re: Machine Learning again

Post by Физик-Лирик »

Kolbasoff wrote:Что касается аджайла, то дружище АццкоМото как-то сказал резко и точно, по-техасски: это способ заставить бегать марафон короткими спринтами. Соковыжималка это, короче.
Прямо в точку. Похоже это счастье трудиться под бдительны окном ПМов уже до R&D доползло. Ну и куда теперь деваться?
blanko27
Уже с Приветом
Posts: 2264
Joined: 17 Jun 2003 04:41
Location: Just like US

Re: Machine Learning again

Post by blanko27 »

Физик-Лирик wrote:Похоже это счастье ...уже до R&D доползло. Ну и куда теперь деваться?
Что-то тема в грустную колею вошла...
Можно я вас лучше спрошу, вы на какой платформе стоите - Symbolists, Connectionists, Evolutionaries, Bayesians или Analogizers? :gen1:
...а мы такой компанией, возьмем, да и припремся к Элис!
Физик-Лирик
Уже с Приветом
Posts: 5106
Joined: 19 Oct 2004 01:46

Re: Machine Learning again

Post by Физик-Лирик »

blanko27 wrote:
Физик-Лирик wrote:Похоже это счастье ...уже до R&D доползло. Ну и куда теперь деваться?
Что-то тема в грустную колею вошла...
Можно я вас лучше спрошу, вы на какой платформе стоите - Symbolists, Connectionists, Evolutionaries, Bayesians или Analogizers? :gen1:
Скорее комбинация Frequentist и Bayesian. :D
Deckel
Ник закрыт за хамство.
Posts: 357
Joined: 16 Feb 2014 18:34

Re: Machine Learning again

Post by Deckel »

Не грустите, читайте Пелевина! Или Бегбедера. Но ни в коем случае не Штайнгарта!
User avatar
Think_Different
Уже с Приветом
Posts: 4867
Joined: 21 Oct 2016 14:32
Location: NYC

Re: Machine Learning again

Post by Think_Different »

почему именно Пелевина. непонятно.
Deckel
Ник закрыт за хамство.
Posts: 357
Joined: 16 Feb 2014 18:34

Machine Learning again

Post by Deckel »

Think_Different wrote:почему именно Пелевина. непонятно.
Самый буддистский писатель, плюс циничность на темы конкретно современной бизнес культуры. Как и Бегбедер.
Оджайл итд. Хотя... про это лучше Том Демарко https://books.google.de/books/about/The ... sc=y&hl=de" onclick="window.open(this.href);return false;
blanko27
Уже с Приветом
Posts: 2264
Joined: 17 Jun 2003 04:41
Location: Just like US

Re: Machine Learning again

Post by blanko27 »

Физик-Лирик wrote:Скорее комбинация Frequentist и Bayesian. :D
Да, Bayesians выглядят интересно, но с Bayesian networks и optimization я пока еще не разбирался, знаю только основы Bayesian logic... :)
...а мы такой компанией, возьмем, да и припремся к Элис!

Return to “Работа и Карьера в IT”