IT горячка в Сиэттле, эпизод 2

User avatar
Dweller
Уже с Приветом
Posts: 12257
Joined: 20 Dec 2000 10:01
Location: Bellevue, WA

Re: IT горячка в Сиэттле, эпизод 2

Post by Dweller »

IvanGrozniy wrote: 24 Feb 2020 16:44
Dweller wrote: 04 Feb 2020 09:34 Пришла пора сказать прощай нынешнему работодателю через 2.5 года усердного труда
После месяца подготовки, 7 онсайтов, получил хороший оффер, общая сумма в год кэшем 300, rsu чуть больше 200, первый год ещё и сайнап 50
Т.е. чуть больше полляма в год и никаких опций.
Есть жизнь на марсе, в общем! Боритесь и поборите!
Хотелось бы задать вопрос специалисту на эту тему. Если, допустим, специалист придумал уникальную модель для "машинного обучения", которая может быть восстребована другими людьми и компаниями. Подобрал нетривиальные фишки для тренировки, кост-функцию подобрал, написал какую-нибудь нестандартную библиотечку для просчета результатов и т.д. Можно ли получить патент на изобретение такой специфической модели в этом случае? Вам встречались подобные примеры? Если да, то ссылки нет случайно? Спасибо.
У меня самого патентов нет. Компания должна сама решать выгодно ли заморачиваться с адвокатами и тратиться на патент. Это недёшево, на мой взгляд пытаются прикрыть задницу просто чтобы кто то другой не отобрал идею и важный продукт.
User avatar
valchkou
Уже с Приветом
Posts: 4185
Joined: 27 Apr 2011 03:43
Location: Сергели ->Chicago

Re: IT горячка в Сиэттле, эпизод 2

Post by valchkou »

IvanGrozniy wrote: 24 Feb 2020 16:44
Dweller wrote: 04 Feb 2020 09:34 Пришла пора сказать прощай нынешнему работодателю через 2.5 года усердного труда
После месяца подготовки, 7 онсайтов, получил хороший оффер, общая сумма в год кэшем 300, rsu чуть больше 200, первый год ещё и сайнап 50
Т.е. чуть больше полляма в год и никаких опций.
Есть жизнь на марсе, в общем! Боритесь и поборите!
Хотелось бы задать вопрос специалисту на эту тему. Если, допустим, специалист придумал уникальную модель для "машинного обучения", которая может быть восстребована другими людьми и компаниями. Подобрал нетривиальные фишки для тренировки, кост-функцию подобрал, написал какую-нибудь нестандартную библиотечку для просчета результатов и т.д. Можно ли получить патент на изобретение такой специфической модели в этом случае? Вам встречались подобные примеры? Если да, то ссылки нет случайно? Спасибо.
можно, но ссылкой не поделюсь. Знаю одного чела он запилил какойто алгоритм несложный на видео аналитику. В итоге компания и купила его алгоритм и дала должность директора.
Сама идея не патентуется, а вот имплементация ввиде нестандартной библиотечки уже позволит этот патент получить.
Затем вам нужен сайт где вы в деталях распишите ваше детище, выйдете на профильные обсуждения, расскажете саксесс сторис на паре конференций и возможно вас купят,
по идее все это можно сделать и без патента, но патент однозначно добавит солидности и денег.
alex_127
Уже с Приветом
Posts: 7723
Joined: 29 Mar 2000 10:01
Location: Kirkland,WA

Re: IT горячка в Сиэттле, эпизод 2

Post by alex_127 »

valchkou wrote: 24 Feb 2020 21:55
IvanGrozniy wrote: 24 Feb 2020 16:44
Dweller wrote: 04 Feb 2020 09:34 Пришла пора сказать прощай нынешнему работодателю через 2.5 года усердного труда
После месяца подготовки, 7 онсайтов, получил хороший оффер, общая сумма в год кэшем 300, rsu чуть больше 200, первый год ещё и сайнап 50
Т.е. чуть больше полляма в год и никаких опций.
Есть жизнь на марсе, в общем! Боритесь и поборите!
Хотелось бы задать вопрос специалисту на эту тему. Если, допустим, специалист придумал уникальную модель для "машинного обучения", которая может быть восстребована другими людьми и компаниями. Подобрал нетривиальные фишки для тренировки, кост-функцию подобрал, написал какую-нибудь нестандартную библиотечку для просчета результатов и т.д. Можно ли получить патент на изобретение такой специфической модели в этом случае? Вам встречались подобные примеры? Если да, то ссылки нет случайно? Спасибо.
можно, но ссылкой не поделюсь. Знаю одного чела он запилил какойто алгоритм несложный на видео аналитику. В итоге компания и купила его алгоритм и дала должность директора.
Сама идея не патентуется, а вот имплементация ввиде нестандартной библиотечки уже позволит этот патент получить.
Затем вам нужен сайт где вы в деталях распишите ваше детище, выйдете на профильные обсуждения, расскажете саксесс сторис на паре конференций и возможно вас купят,
по идее все это можно сделать и без патента, но патент однозначно добавит солидности и денег.
патент нужен компании, статья/выступление на конференции - вам. в зависимости от конторы патент это 0..3000$ вам. я на патенты народа перед интервью смотрю по количеству и по соавторам, чтобы калибр человека представить...
User avatar
valchkou
Уже с Приветом
Posts: 4185
Joined: 27 Apr 2011 03:43
Location: Сергели ->Chicago

Re: IT горячка в Сиэттле, эпизод 2

Post by valchkou »

alex_127 wrote: 24 Feb 2020 22:03
valchkou wrote: 24 Feb 2020 21:55
IvanGrozniy wrote: 24 Feb 2020 16:44
Dweller wrote: 04 Feb 2020 09:34 Пришла пора сказать прощай нынешнему работодателю через 2.5 года усердного труда
После месяца подготовки, 7 онсайтов, получил хороший оффер, общая сумма в год кэшем 300, rsu чуть больше 200, первый год ещё и сайнап 50
Т.е. чуть больше полляма в год и никаких опций.
Есть жизнь на марсе, в общем! Боритесь и поборите!
Хотелось бы задать вопрос специалисту на эту тему. Если, допустим, специалист придумал уникальную модель для "машинного обучения", которая может быть восстребована другими людьми и компаниями. Подобрал нетривиальные фишки для тренировки, кост-функцию подобрал, написал какую-нибудь нестандартную библиотечку для просчета результатов и т.д. Можно ли получить патент на изобретение такой специфической модели в этом случае? Вам встречались подобные примеры? Если да, то ссылки нет случайно? Спасибо.
можно, но ссылкой не поделюсь. Знаю одного чела он запилил какойто алгоритм несложный на видео аналитику. В итоге компания и купила его алгоритм и дала должность директора.
Сама идея не патентуется, а вот имплементация ввиде нестандартной библиотечки уже позволит этот патент получить.
Затем вам нужен сайт где вы в деталях распишите ваше детище, выйдете на профильные обсуждения, расскажете саксесс сторис на паре конференций и возможно вас купят,
по идее все это можно сделать и без патента, но патент однозначно добавит солидности и денег.
патент нужен компании, статья/выступление на конференции - вам. в зависимости от конторы патент это 0..3000$ вам. я на патенты народа перед интервью смотрю по количеству и по соавторам, чтобы калибр человека представить...
так вопрос был про личный патент. Компания не участвует.
Другой вопрос что будет делать работодатель когда узнает что за его спиной работник зафигачил свой патент.
ведь многие компании просят подписать бумажку что все интеллектуальные права принадлежат ей.
alex_127
Уже с Приветом
Posts: 7723
Joined: 29 Mar 2000 10:01
Location: Kirkland,WA

Re: IT горячка в Сиэттле, эпизод 2

Post by alex_127 »

а вы попробуйте зафайлить патент сами... вас ждет много приключений...
за спиной работодателя - суд. потому что лоерам тоже надо кушать вашу печень...
между компаний - ну я это делал по приколу... по прежнему - вас ждет много приключений...
User avatar
Dweller
Уже с Приветом
Posts: 12257
Joined: 20 Dec 2000 10:01
Location: Bellevue, WA

Re: IT горячка в Сиэттле, эпизод 2

Post by Dweller »

А давайте ка я подброшу дровишек в огонь и скажу что все мои три оффера где дали приличные деньги пришли от нанимающих менеджеров родом из России. При том что кроме них самих на интервью из России/бСССР никого другого не было - только стандартно в основном американцы китайцы индусы.
User avatar
Komissar
Уже с Приветом
Posts: 64661
Joined: 12 Jul 2002 16:38
Location: г.Москва, ул. Б. Лубянка, д.2

Re: IT горячка в Сиэттле, эпизод 2

Post by Komissar »

Dweller wrote: 26 Feb 2020 18:02 А давайте ка я подброшу дровишек в огонь и скажу что все мои три оффера где дали приличные деньги пришли от нанимающих менеджеров родом из России.
По блату прошел!
User avatar
Dweller
Уже с Приветом
Posts: 12257
Joined: 20 Dec 2000 10:01
Location: Bellevue, WA

Re: IT горячка в Сиэттле, эпизод 2

Post by Dweller »

Komissar wrote: 27 Feb 2020 07:26
Dweller wrote: 26 Feb 2020 18:02 А давайте ка я подброшу дровишек в огонь и скажу что все мои три оффера где дали приличные деньги пришли от нанимающих менеджеров родом из России.
По блату прошел!
Ну так невеста была уже немолода ;)
Chessplayer
Уже с Приветом
Posts: 345
Joined: 27 Nov 2007 05:33

Re: IT горячка в Сиэттле, эпизод 2

Post by Chessplayer »

Dweller wrote: 05 Feb 2020 19:38 А насчёт Гугл - ходил я к ним на L6, но ML позиций не было в киркланде, поэтому просто на бакенд, не взяли ... Очегь высокая планка там
Dweller, а на ML позиции в Гугле и FB требования на интервью такие же как для Software Engineers? Т.е. нужен System Design и еже с ним? Меня больше со стороны ML Science и model development это интересует, а не Engineering. У них есть отдельный трэк для таких людей или туда потом отбирают из софтверных инженеров? Или такими вещами только в Гугл Брэйн и FB Research занимаются? Я знаю, что есть отдельный трэк для Data Science, но у меня сложилось впечатление, что там только традиционный ML без нейронных сетей - это так или возможны варианты? Я про Bay Area спрашиваю, ежели что.
User avatar
Dweller
Уже с Приветом
Posts: 12257
Joined: 20 Dec 2000 10:01
Location: Bellevue, WA

Re: IT горячка в Сиэттле, эпизод 2

Post by Dweller »

ХЗ, я ж написал что интервью было не на ML позицию, поэтому не могу сказать что там было бы. Наверное ещё одна сессия с ML design
User avatar
IvanGrozniy
Уже с Приветом
Posts: 10379
Joined: 04 Feb 2004 14:14
Location: Edgewater, NJ

Re: IT горячка в Сиэттле, эпизод 2

Post by IvanGrozniy »

Chessplayer wrote: 02 Mar 2020 07:35 что там только традиционный ML без нейронных сетей - это так или возможны варианты?
Я так понимаю нейронные сети в ML - этот тот же самый традиционный ML (linear/polynomial regression, logistic regression и т.д.), только со вставленными "скрытыми слоями". То есть, например, для нейронной архитектуры делаешь сначала linear regression на входных данных, потом берешь результаты и уже на них, как на входных параметрах делаешь еще один linear regression. Скрытых слоев может быть от 1 и более. Просто нужно часик-два потратить на формулы и понятно будет, что одинаковый подход, только добавлены дополнительные этапы между входными данными и результатами.
Chessplayer
Уже с Приветом
Posts: 345
Joined: 27 Nov 2007 05:33

Re: IT горячка в Сиэттле, эпизод 2

Post by Chessplayer »

IvanGrozniy wrote: 02 Mar 2020 15:52 Я так понимаю нейронные сети в ML - этот тот же самый традиционный ML (linear/polynomial regression, logistic regression и т.д.), только со вставленными "скрытыми слоями". То есть, например, для нейронной архитектуры делаешь сначала linear regression на входных данных, потом берешь результаты и уже на них, как на входных параметрах делаешь еще один linear regression. Скрытых слоев может быть от 1 и более. Просто нужно часик-два потратить на формулы и понятно будет, что одинаковый подход, только добавлены дополнительные этапы между входными данными и результатами.
То что вы описали - это через чур упрощенное понимание нейронных сетей и именно в таком виде мало где используется. В последние десять лет было разработано большое количество разных подходов и архитектур (CNN, RNN/LSTM, transformers, etc) для решения задач компьютерного зрения и обработки текстов. В широком смысле слова эта область получила название AI. Возьмите какой-нибудь базовый курс на эту тему, если вам интересно.

У меня сложилось впечатление, что Data Scientist-ы в Гугле и Фэйсбуке работают со стандартными алгоритмами больше подходящими для табличных данных или временных рядов (типа random forest или clustering) и в AI не лезут, но может быть я ошибаюсь?
Last edited by Chessplayer on 02 Mar 2020 20:54, edited 1 time in total.
Chessplayer
Уже с Приветом
Posts: 345
Joined: 27 Nov 2007 05:33

Re: IT горячка в Сиэттле, эпизод 2

Post by Chessplayer »

Кстати, отмечу один важный момент: то, что вы описали выше - это по прежнему линейная регрессия, а не нейронная сеть. Чтобы получить нейронную сеть, хотя бы один из слоев должен содержать нелинейность. Иначе перегруппировав параметры в этой сети, ее можно опять свести к обычной линейной регрессии.
User avatar
IvanGrozniy
Уже с Приветом
Posts: 10379
Joined: 04 Feb 2004 14:14
Location: Edgewater, NJ

Re: IT горячка в Сиэттле, эпизод 2

Post by IvanGrozniy »

Chessplayer wrote: 02 Mar 2020 20:41
IvanGrozniy wrote: 02 Mar 2020 15:52 Я так понимаю нейронные сети в ML - этот тот же самый традиционный ML (linear/polynomial regression, logistic regression и т.д.), только со вставленными "скрытыми слоями". То есть, например, для нейронной архитектуры делаешь сначала linear regression на входных данных, потом берешь результаты и уже на них, как на входных параметрах делаешь еще один linear regression. Скрытых слоев может быть от 1 и более. Просто нужно часик-два потратить на формулы и понятно будет, что одинаковый подход, только добавлены дополнительные этапы между входными данными и результатами.
То что вы описали - это через чур упрощенное понимание нейронных сетей и именно в таком виде мало где используется. В последние десять лет было разработано большое количество разных подходов и архитектур (CNN, RNN/LSTM, transformers, etc) для решения задач компьютерного зрения и обработки текстов. В широком смысле слова эта область получила название AI. Возьмите какой-нибудь базовый курс на эту тему, если вам интересно.

У меня сложилось впечатление, что Data Scientist-ы в Гугле и Фэйсбуке работают со стандартными алгоритмами больше подходящими для табличных данных или временных рядов (типа random forest или clustering) и в AI не лезут, но может быть я ошибаюсь?
Я как раз лабораторную делаю по распознаванию циферок на картинке. Формула та же самая, как и в не нейронных сетях (прикреплена). Просто в цикле 10 раз обсчитываются параметры для логической классификации на каждую циферку. Здесь для распознавания рукописных цифр даже скрытых слоев не нужно для выбранной нейро-архитектуры. Входные данные - цвета 400 пикселей для каждой написанной цифры, выходные данные просто классификатор 1 или 0 каждой определенной цифры.
Бесплатная база данных 5000 примеров написания цифр можно скачать у профессоре LeCun по ссылке http://yann.lecun.com/exdb/mnist/
Он для почты США делал распознавание лет 20-30 назад.
Думаю, распознавание рукописных текстов только по входным данным побольше, а алгоритм тот же.
You do not have the required permissions to view the files attached to this post.
Last edited by IvanGrozniy on 02 Mar 2020 22:27, edited 1 time in total.
User avatar
IvanGrozniy
Уже с Приветом
Posts: 10379
Joined: 04 Feb 2004 14:14
Location: Edgewater, NJ

Re: IT горячка в Сиэттле, эпизод 2

Post by IvanGrozniy »

Chessplayer wrote: 02 Mar 2020 20:53 Кстати, отмечу один важный момент: то, что вы описали выше - это по прежнему линейная регрессия, а не нейронная сеть. Чтобы получить нейронную сеть, хотя бы один из слоев должен содержать нелинейность. Иначе перегруппировав параметры в этой сети, ее можно опять свести к обычной линейной регрессии.
Ну вот что значит нелинейность? Логический классификатор по умолчанию нелинейный. Сигмоидная функция для предсказывания единицы или нуля h(theta) = 1 / (1 + e ^ -(z)) уже содержит экспоненту в степени. Просто параметр Z линейное уравнение от параметров тренировочного сэта X. Уже никак не свести к линейной регрессии. Если нужно, то входные парметры Z можно сделат полиномом нужной степени. Только нужно аккуратно делать, чтобы не было проблемы overfitting, когда вроде бы модель все данные покрывает, а предсказывает коряво. На много размерных данных все равно сразу полиномом нельзя делать, так как визуально не представишь, что происходит. Я бы, наверное, 3 типа реализовывал для сравнения: линейную, полиномиальную и полиномиальную с regularization.
Chessplayer
Уже с Приветом
Posts: 345
Joined: 27 Nov 2007 05:33

Re: IT горячка в Сиэттле, эпизод 2

Post by Chessplayer »

IvanGrozniy wrote: 02 Mar 2020 22:25 Ну вот что значит нелинейность? Логический классификатор по умолчанию нелинейный. Сигмоидная функция для предсказывания единицы или нуля h(theta) = 1 / (1 + e ^ -(z)) уже содержит экспоненту в степени. Просто параметр Z линейное уравнение от параметров тренировочного сэта X. Уже никак не свести к линейной регрессии. Если нужно, то входные парметры Z можно сделат полиномом нужной степени. Только нужно аккуратно делать, чтобы не было проблемы overfitting, когда вроде бы модель все данные покрывает, а предсказывает коряво.
Логический - да, но у вас выше шла речь про линейную регрессию, что не есть logisitic regression.
User avatar
IvanGrozniy
Уже с Приветом
Posts: 10379
Joined: 04 Feb 2004 14:14
Location: Edgewater, NJ

Re: IT горячка в Сиэттле, эпизод 2

Post by IvanGrozniy »

Chessplayer wrote: 02 Mar 2020 22:35
IvanGrozniy wrote: 02 Mar 2020 22:25 Ну вот что значит нелинейность? Логический классификатор по умолчанию нелинейный. Сигмоидная функция для предсказывания единицы или нуля h(theta) = 1 / (1 + e ^ -(z)) уже содержит экспоненту в степени. Просто параметр Z линейное уравнение от параметров тренировочного сэта X. Уже никак не свести к линейной регрессии. Если нужно, то входные парметры Z можно сделат полиномом нужной степени. Только нужно аккуратно делать, чтобы не было проблемы overfitting, когда вроде бы модель все данные покрывает, а предсказывает коряво.
Логический - да, но у вас выше шла речь про линейную регрессию, что не есть logisitic regression.
Глянул в написанное, вы правы. Там две опечатки :D
Chessplayer
Уже с Приветом
Posts: 345
Joined: 27 Nov 2007 05:33

Re: IT горячка в Сиэттле, эпизод 2

Post by Chessplayer »

IvanGrozniy wrote: 02 Mar 2020 22:22 Я как раз лабораторную делаю по распознаванию циферок на картинке. Формула та же самая, как и в не нейронных сетях (прикреплена). Просто в цикле 10 раз обсчитываются параметры для логической классификации на каждую циферку. Здесь для распознавания рукописных цифр даже скрытых слоев не нужно для выбранной нейро-архитектуры. Входные данные - цвета 400 пикселей для каждой написанной цифры, выходные данные просто классификатор 1 или 0 каждой определенной цифры.
Бесплатная база данных 5000 примеров написания цифр можно скачать у профессоре LeCun по ссылке http://yann.lecun.com/exdb/mnist/
Он для почты США делал распознавание лет 20-30 назад.
Думаю, распознавание рукописных текстов только по входным данным побольше, а алгоритм тот же.
Методы Yann LeCunn работают (медленно) только для маленьких картинок и определенных задач. Для более сложных задач fully connected neural net будет слишком тяжелой и поэтому используют CNN. Но вы на правильном пути: пройдете базовый курс Andrew Ng, потом возьмите его курс по deep learning.
Chessplayer
Уже с Приветом
Posts: 345
Joined: 27 Nov 2007 05:33

Re: IT горячка в Сиэттле, эпизод 2

Post by Chessplayer »

Снежная Королева wrote: 02 Mar 2020 22:46 Вы будете смеяться, но logistics regression именно что одна из разновидностей линейных моделей. Это статистика 101.
Я полагаю, что у вас была двойка по статистике и по чтению.
Chessplayer
Уже с Приветом
Posts: 345
Joined: 27 Nov 2007 05:33

Re: IT горячка в Сиэттле, эпизод 2

Post by Chessplayer »

Снежная Королева wrote: 02 Mar 2020 22:54 Вы несогласны с моим утверждением?
Нет, поскольку linear models описывают регрессию, а logistic regression - классификацию. Т.е. конечно можно это всё назвать линейными моделями, но в разрезе нашего разговора ИваномГрозным о нейронках, между ними есть принципиальная разница связанная с нелинейностью.
Caxapa
Уже с Приветом
Posts: 396
Joined: 11 May 2016 00:43

Re: IT горячка в Сиэттле, эпизод 2

Post by Caxapa »

народ, что в етом компоте больше привлекает и мотивирует: математика, программирование, бабло, ошушение себя шибко умным?

Мне лет 20 назад ето было интерсно, а сейчас нет.
Chessplayer
Уже с Приветом
Posts: 345
Joined: 27 Nov 2007 05:33

Re: IT горячка в Сиэттле, эпизод 2

Post by Chessplayer »

Снежная Королева wrote: 03 Mar 2020 00:57 Что значит "linear models описывают регрессию"? Как можно регрессию "описать"?
Ок, я подумал, что если привести аналогию с регрессией и классификацией, то может быть вам будет понятнее о чем речь. Но вам похоже хочется придраться к словам. Было бы больше времени, то написал бы: "linear models применяются в задачах регрессии"... Но по большому счёту это неважно где и как они применяются. Важно то, что поскольку в logisitic regression стоит нелинейный sigmoid, то она по определению не может являться линейной. Собственно это мы с Иваном Грозным и обсуждали до вашего прихода в контексте нейронных сетей. Конечно, если вы рассматриваете вопрос вот с этих позиций: https://sebastianraschka.com/faq/docs/l ... inear.html , то да с натяжкой можно назвать обобщенной линейной моделью (в курсе линейной алгебры я бы за такое определение получил два), но какое отношение это имеет к первоначальной теме дискуссии?
Снежная Королева wrote: 03 Mar 2020 00:57 И последний вопрос, умоляю, ответьте честно. Отвлечемся от нейронок и статистики. Вы понимаете что такое линейная комбинация?
Это наверное риторический вопрос? Такие базовые вещи проходят на первом курсе технического вуза.
Last edited by Chessplayer on 03 Mar 2020 04:44, edited 1 time in total.
Chessplayer
Уже с Приветом
Posts: 345
Joined: 27 Nov 2007 05:33

Re: IT горячка в Сиэттле, эпизод 2

Post by Chessplayer »

..
User avatar
Sergunka
Уже с Приветом
Posts: 34124
Joined: 03 Dec 2000 10:01
Location: Vladivostok->San Francisco->Los Angeles->San Francisco

Re: IT горячка в Сиэттле, эпизод 2

Post by Sergunka »

Caxapa wrote: 02 Mar 2020 23:16 народ, что в етом компоте больше привлекает и мотивирует: математика, программирование, бабло, ошушение себя шибко умным?

Мне лет 20 назад ето было интерсно, а сейчас нет.
Только бабло... быть умным лет как сорок надоело :fr: На самом деле математики там нет, программирование там довольно линейное... ощутить себя умным вряд ли может кого-нибудь на этом ресурсе сильно смотивировать. К слову сказать и бабла то в общем если обычный ламер не очень то много насыпят за ту же яву могут больше дать :pain1: Сложно нынче колхознику :sadcry:
"A patriot must always be ready to defend his country against his government." Edward Abbey
Chessplayer
Уже с Приветом
Posts: 345
Joined: 27 Nov 2007 05:33

Re: IT горячка в Сиэттле, эпизод 2

Post by Chessplayer »

Снежная Королева wrote: 03 Mar 2020 06:35 Описать регрессию нельзя, описать можно target.
Вы под "описать регрессию" имели в виду continuous target, наверное. Так в logistics regression output тоже continuous, модель выдает 0-1 continuous target. Это потом уже вы принимаете классификационное решение based on threshold.

Любая модель, которая описывает target (output, dependent variable) как линейную комбинацию inputs, является линейной. То, что target преобразован с помощью сигмоидной функции, никого не волнует. Важно что параметры additive as opposed to multiplicative
Perceptron ( a single layer nn) тоже суть линейная модель.

Тщательнее надо с определениями, тогда я не буду придираться к словам.
Ещё раз: ваше определение линейности моделей не имеет никакого отношения к первоначальному разговору про нейронки. Вы пытаетесь заменить понятие нелинейности (y(x) != ax+b), которая как мы обсуждали выше необходима для построения нейронной сети, на - является ли вход модели линейной комбинацией параметров (и неважно какие потом с ним производят преобразования). Разницу ощущаете? Я собственно сразу вам на это и указал.

Return to “Работа и Карьера в IT”