[Ответить в тред] Ответить в тред

Check this out!


<<
Назад | Вниз | Каталог | Обновить тред | Автообновление
511 | 52 | 124

НЕЙРОНОЧКИ И МАШОБ ТРЕД №?.8 /ai/ Аноним 26/08/18 Вск 11:20:16  1252855  
1.jpg (303Кб, 1600x1200)
2.jpg (158Кб, 642x1080)
3.jpg (299Кб, 739x1080)
4.jpg (410Кб, 976x1815)
Очередной тред про хипстерские технологии, которые не работают.
Продолжаем спрашивать очевидные вещи, о которых знает любой индус, прочитавший хоть одну книгу по машобу.

FAQ:
Я ничего не понимаю, что делать? Либо в тупую import slesarplow as sp по туториалам, либо идти изучать математику курсы MIT тебе в помощь. Не нужно засирать тред вопросами типа "что такое сигма?".
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai | https://github.com/pytorch/examples
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/
Где работать? https://www.indeed.com/q-deep-learning-jobs.html
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/ | http://www.datatau.com/ На реддите также есть хороший ФЭК для вкатывающихся
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Архивач:
http://arhivach.cf/thread/383421/
Остальные в предыдущем треде

Там же можно найти треды 2016-2017 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"

Предыдущий тред: >>1242753 (OP)
Аноним 26/08/18 Вск 11:27:52  1252862
>>1252855 (OP)
Блять, оппик затроллил всех кто углубляется в мл через ютуб, как делают во всех других сферах программирования.
Аноним 26/08/18 Вск 11:52:44  1252874
>>1252855 (OP)
Ну чо там, когда уже будет учебник по математике?
Аноним 26/08/18 Вск 12:07:17  1252879
Я еще раз всем напомню: смысла в машобе нет никакого, если у вас нет топового математического образования.
В ближайшие 2 года ожидается массовый наплыв макак в машоб и датасаенс, и чтобы с ними конкурировать, придется иметь топовое образование.
Аноним 26/08/18 Вск 12:14:43  1252885
>>1252879
Да мл сложный для макак и сейчас не на хайпе. Сейчас буйство веба.
Аноним 26/08/18 Вск 13:56:38  1252982
>>1252879
> Я еще раз всем напомню: смысла в машобе нет никакого, если у вас нет топового математического образования.
Если нет топовой бамажки, чтобы продать дяде жопу подороже, ты хотел сказать. Если торговля жопой не рассматривается, то даже и бамажка не нужна.
Аноним 26/08/18 Вск 14:50:14  1253022
>>1252982
Ну да, мы тут все хотим продать себя задороха
Аноним 26/08/18 Вск 19:51:04  1253183
>>1252879
Как будто с образованием там что-то светит. Почитай ODS, раздел welcome - 99% историй о себе суть два варианта:

1) Я колхозник, бухгалтерша, продавец говна, хочу многа денех, нихуя не умею, изучаю МАШЫНХ ЛЕРНИГХ.

2) Я учился в топ вузе, но слишком тупой, чтобы идти в академическую науку, и слишком кривожопый чтобы уметь писать нормальный код. Поэтому я теперь МАШИН ЛЕРНЕР, пишу статьи, участвую в КАГГЛЕ и всячески пиарюсь среди аудитории под номером 1.
Аноним 26/08/18 Вск 20:37:35  1253239
>>1253183
И те и другие так и не вкатываются?
Меня интересует варик про колхозников? Работаю инженером в газовой промышленности, хочу перекатится.
Аноним 26/08/18 Вск 20:43:17  1253249
>>1253239
Сам-то как думаешь? Если ты разрешения у меня пришел спросить, то высылай биткоин - разрешу, так и быть. Вероятность твоего успеха посчитать трудно, но там много нулей сначала идет.
Аноним 26/08/18 Вск 21:04:00  1253288
>>1253275
Я же не Миллером там работаю, а обычной обслугой, подготавливаю расходомеры к продаже. Платят 60 к, так что сплю и вижу как перекачуть в АЙТИ!
Аноним 26/08/18 Вск 21:25:02  1253319
>>1253313
А как же ЗП 100+ на старте? Вот это вот все! Не?
Аноним 26/08/18 Вск 22:27:43  1253350
>>1253183
Ты немного меня обрадовал. Может будут брать таких каких сейчас на всякие софт-проекты берут.
Аноним 26/08/18 Вск 22:55:17  1253355
>>1253279
> матанопетушня
Кто-то успешно выкатился, кто-то пошел в науку и преподавание. Самые успешные сидят в ресерч отделах за огромные деньги
Аноним 26/08/18 Вск 23:02:40  1253358
Сколько в треде дешёвых шлюх.
Аноним 26/08/18 Вск 23:04:19  1253359
>>1253358
Ну да, но мы хотим себя подороже продать
Аноним 27/08/18 Пнд 12:52:56  1253555
image.png (301Кб, 660x398)
Сделайте нейроночку для распознавания лиц с фетальным алкогольным синдромом. Сразу можно будет отсеять для себя большую часть неблагонадежных людей, например.
Аноним 27/08/18 Пнд 16:38:56  1253672
>>1253555
Так она тебя в первую очередь отсеет, илитарий мамин.
Аноним 27/08/18 Пнд 20:47:52  1253762
Sup /b/ /pr/
Вопрос на отсос: можно ли вкатиться если вместо видеокарты красная затычка прошлого десятиления, но 10-ядерный китайский зион вместо проца?
Я так посмотрел сколько времени обучается тот же WaveNet на видеокарте и приуныл, пересчитав на GFLOP/s процессора...
Аноним 27/08/18 Пнд 20:49:49  1253764
>>1253762
Бери последнию модель от хуанга в SLI в кредит, только так ты можешь стать ДАЙТА САЙНТИСТОМ.
Аноним 27/08/18 Пнд 20:52:47  1253765
>>1253764
Шо, все так плохо?
Алсо? шо за жопа у радиков (GCN1-2) с OpenCL и у нейронок опять же с ним же? Чо все на куде сидят?
Аноним 27/08/18 Пнд 20:54:35  1253767
>>1253764
Удвою этого Господина, у меня двоюродный брат проходил курсы от Билайна по анализу данных, уже ближе к концу учебы ему препод сказал что есть подработка связанная с расчетами, но нужен компьютер серьезный. Вообщем брат залез в кредиты и купил себе дорогой комп, сейчас с этой халтуры и отбивает кредит. По любому у проф аналитика должен быть вычислительный комп, иначе ты просто не сможешь работать. Ну либо облако, но там тоже платить надо за мощности, для разовых вычислений может и норм, но на постоянке это не выгодно.
Аноним 27/08/18 Пнд 20:59:32  1253769
>>1253762
>10-ядерный китайский зион
ниачом, ЦПУ безнадежно отстали. Жди выхода нового поколения жфорсов и бери самый топовый. 32Гб основной памяти должно быть еще как минимум.
Аноним 27/08/18 Пнд 21:04:04  1253772
>>1253769
Да ебись оно конем, что за танцы криворуких макак нахер. Radeon HD 7870 2,5 Терафлопса в single-precision может выдать, но блять нихуя ничего не пашет, сука. Ебанные зеленые с их ебанной кудой. Ебанные макаки, которые кроме куды ничего не осилили.
Аноним 27/08/18 Пнд 21:09:58  1253774
>>1253772
на прошлой неделе была на хабре статья про это, там вроде keras прикрутили к амудям
Аноним 27/08/18 Пнд 21:11:54  1253775
>>1253774
Оно в итоге через жопу и сливает в два раза менее производительной невидии.
Аноним 27/08/18 Пнд 21:17:20  1253777
>>1253776
Мне на поржать, поэтому и пытаюсь на старом говне запустить шоб работало
Аноним 28/08/18 Втр 16:26:07  1254153
>>1253762
зависит от того, в какую сферу ты вкатываться будешь, для вкатывания в картиночки или звук облака и селерона вместо процессора хватит.
Аноним 28/08/18 Втр 17:31:29  1254225
Анончик, помоги найти нормальный гуид по реинфорсмент лернинх. На англе можно. Я всё уже пересмотрел и либо нормального гайда тупо нет, либо он сразу с тензорфлоу и подобным. Мне нужно чтобы без сторонних библиотек, чтобы самому можно было написать. Например нейросеть я написал на питоне по гайду с хабра. И тут хочу так же разобраться до мелочей.
Аноним 28/08/18 Втр 17:37:37  1254228
>>1254225
Reinforcement Learning: An Introduction
Book by Andrew Barto and Richard S. Sutton
Аноним 28/08/18 Втр 17:48:15  1254235
>>1254225
Помедитируй над уравнениями Хебба, потом почитай про Q-learning. Дипреинфорсментлернинх не сложнее, просто там входные данные посложнее - скриншоты вместо простых векторов итд.
Аноним 28/08/18 Втр 17:58:41  1254239
Придумайте название для AI проехта.
Аноним 28/08/18 Втр 18:00:10  1254241
>>1254239
AIProject.
Аноним 28/08/18 Втр 18:13:07  1254246
>>1254239
AiSeptima
Аноним 28/08/18 Втр 18:14:53  1254248
>>1254239
S05AI
Аноним 28/08/18 Втр 18:18:50  1254249
>>1254239
AIIAX
Аноним 28/08/18 Втр 18:23:52  1254255
>>1254239
> Придумайте название для AI проехта.
SoyBoyProject
Аноним 28/08/18 Втр 18:26:51  1254258
>>1254239
IskeustvennbIy InteJlJlekt
Аноним 29/08/18 Срд 01:32:22  1254493
>>1254153
Денег на облако нет. Зато есть ведро старых Радиков и мешок китайзионов на любой вкус.

PlaidML оказывается на любом говне работает, пошел ставить катализд и вперде к нейроночкам
Аноним 29/08/18 Срд 09:55:25  1254565
1380312064742.jpg (1083Кб, 1500x938)
>>1254239
Edwood

Так звали моего паладина в вовне.
Аноним 29/08/18 Срд 11:22:17  1254601
image.png (47Кб, 684x177)
Аноним 29/08/18 Срд 11:26:22  1254605
>>1254601
Интересно как его зовут на самом деле.
Ну а вообще грустная правда в том что пока мамины вкатывальщики рефлексируют на дваче, то вот такие роберты хуеберты просто и без задней мысли проходят пару курсов и никого не стесняясь рассылают сотню резюме, и вкатываются в ойти.
Аноним 29/08/18 Срд 11:29:06  1254607
>>1254605
>Беларуси
>Роберт

Кек.
Аноним 29/08/18 Срд 11:32:32  1254610
>>1254605
>роберты хуеберты просто и без задней мысли проходят пару курсов и никого не стесняясь рассылают сотню резюме, и вкатываются в ойти.
Какая-то прохладная история
Аноним 29/08/18 Срд 11:53:23  1254615
>>1254605
Ага, еще и миллионы денег у пендосов получит на стартап, как тут недавно пролетала новость про белорусов.
Аноним 29/08/18 Срд 12:40:44  1254634
>>1254615
А если постоит на шоссе с табличкой Кожу за еду - может сам тим кук прочистит очко и даст гейфон.
Аноним 29/08/18 Срд 15:45:17  1254743
>>1254605
Не, это так не работает.
Вкатиться без хотя бы какого-нибудь математического образования – все равно что пососать хуй в долгосрочной перспективе. Чуть что изменится, появятся новые технологии, и ты сразу же сосешь хуй, потому что все твои знания ограничиваются на питоне с библиотеками и правилах умножения/сложения матриц
Аноним 29/08/18 Срд 15:56:04  1254749
>>1254743
> Чуть что изменится, появятся новые технологии, и ты сразу же сосешь хуй, потому что все твои знания ограничиваются на питоне с библиотеками и правилах умножения/сложения матриц
Будто в машобчике было, есть или будет что-то кроме умножения или сложения матриц.
Аноним 29/08/18 Срд 17:39:06  1254844
>>1254743
Новых технологий не появлялось с прошлого века
Аноним 29/08/18 Срд 18:21:08  1254886
>>1254605
Ничего кроме пиздежа я там не увидел, я тоже могу написать что я прохожу курсы такие то и хочу вот вкатиться на стажировку, и есть пара идей. И что? дальше что? таких даунов у нас полный тред.
Аноним 29/08/18 Срд 18:27:23  1254896
>>1254886
Ну вообще парень для своих 15 лет смышленый
Аноним 29/08/18 Срд 18:32:20  1254901
>>1254896
Я тебя умоляю, ты же не знаешь как он проходит эти курсы и как учится, может он вкл видео и сидит в носу ковыряет... И думает о я мамкин махинлернер, а по факту ничего не умеет и не может. И таких даунов хватает даже после прохождения курсов и сертификатов.
Аноним 29/08/18 Срд 18:40:23  1254906
>>1254743
Любой человек с IQ > 120 освоит всю математику, которая нужна для маш оба за пару месяцев. Это я тебе как выпускник примата говорю.
Аноним 29/08/18 Срд 18:41:31  1254908
>>1254906
Для выпусника нормальной школы там вообще почти ничего осваивать не надо.
Аноним 29/08/18 Срд 20:25:33  1254972
>>1254901
Ну так такие дауны обычно в возрасте 20-24 лет, а этот вон.
Аноним 29/08/18 Срд 21:05:18  1254986
>>1254906
Какая конкретно математика нужна? Можно исчерпывающие названия разделов математики и / или типовых методов, применяемых в 95% машоба?
Аноним 29/08/18 Срд 21:08:41  1254988
>>1254986
Ты не сильно умный, да?
Аноним 29/08/18 Срд 21:10:10  1254989
>>1254988
Листал /pr, зацепился взглядом за обобщение "всей математики, которая нужна для машоба". Любопытно.
Аноним 29/08/18 Срд 21:16:40  1254990
>>1254989
Подумай, какой раздел математики изучает арифметику.
Аноним 29/08/18 Срд 21:19:35  1254992
>>1254989
Мат. анализ за первый курс, основы линейной алгебры, основы теор вера.
Аноним 29/08/18 Срд 21:20:59  1254993
>>1254992
https://arxiv.org/pdf/1705.08039.pdf
Чтобы читать статьи в духе вот этой еще функ ан нужен. Все.
Аноним 29/08/18 Срд 21:22:40  1254994
>>1254993
Только для работы требуют стронг математикал бэкграунд от топ100 универов мира.
Аноним 29/08/18 Срд 22:13:26  1255018
>>1254994
сорь с работой ты в пролете))
Аноним 29/08/18 Срд 22:39:13  1255034
>>1255018
Я в топ100 универов мира))
Аноним 29/08/18 Срд 23:22:13  1255055
brofistcover.jpg (33Кб, 600x600)
>>1255034
Аноним 29/08/18 Срд 23:26:04  1255057
>>1255034
А я закончил 9 классов церковно-приходской, работаю дворником и покупаю железо б/у китайское.

мимовкатывающийся в машоб
Аноним 29/08/18 Срд 23:59:03  1255065
>>1254994
Где? fit(), predict() и чистить данные вилкой и обезьяну можно научить. Свои маня-фантазии оставь себе.
Аноним 30/08/18 Чтв 00:02:50  1255067
>>1254994
Бэкграунд от топ100 универов мира в чем? В вычислении производных? Или умножении матриц?
Аноним 30/08/18 Чтв 00:03:53  1255068
d2e.png (77Кб, 412x351)
Где найти работу на полставки? Везде от 30 часов требуют.
На стажировку Яндекса трудно попасть? Я увидел у них "выберите 3 статьи и расскажите о них" и испугался.
Аноним 30/08/18 Чтв 00:17:41  1255074
>>1255067
в том, что ты не напомоечник))
Аноним 30/08/18 Чтв 00:20:06  1255075
>>1255074
Машоб это и есть помойка для дебилов, которые пишут пятистрочные скрипты. Или занимаются математикой уровня курсовой работы бакалавара.
Аноним 30/08/18 Чтв 01:17:57  1255088
>>1255075
грят, сидя на помоечке ты видишь вокруг одну лишь помоечку, это правда?))
Аноним 30/08/18 Чтв 01:18:38  1255090
>>1255088
Да, я посидел какое-то время, теперь со стороны смотрю.
Аноним 30/08/18 Чтв 05:55:35  1255124
>>1255108
Идея есть. Мир перевернёт, создаст полный ИИ, все проблемы решит.
Аноним 30/08/18 Чтв 07:10:08  1255129
>>1255128
Нет, тогда ты сам всё сделаешь быстрее меня, потому что я необходимые сферы знаю плохо и работаю хуёво и медленно.
Аноним 30/08/18 Чтв 08:33:31  1255155
image.png (213Кб, 480x360)
Какие есть нерешённые проблемы Reinforcement Learning сейчас? Почему алгоритм обучения не универсален до сих пор?
Аноним 30/08/18 Чтв 09:53:49  1255177
>>1255155
>Почему алгоритм обучения не универсален до сих пор?

Потому что наличие целевой функции предполагает, что к глобальному оптимуму всегда можно добраться по её градиенту либо что локальные оптимумы почти равны глобальным, а стохастические оптимизации предполагают, что с их помощью, всегда можно выпрыгнут из локальных оптимумов и продолжить движение по градиенту к глобальному оптимуму. От все большая недооценка топологии реальных пространств оптимизации.
Аноним 30/08/18 Чтв 10:32:52  1255195
>>1255155
назови решенные проблемы reinforcement learning

Аноним 30/08/18 Чтв 13:26:04  1255275
Хотите открою секрет? В этом треде нет никого кто работает дата саентистом или машин лерниром, короче вот с этим говном, и получает за это деньги. Скринте. Тут только мечтатели и вкатывальщики бесконечные с синдромом студента.
Аноним 30/08/18 Чтв 14:15:24  1255301
>>1255275
Пруфы в студию. ссылочку на рт
Аноним 30/08/18 Чтв 14:44:34  1255320
>>1255275
Да, ты прав.
Я вот только поступил и только начинаю вкатываться. Надеюсь на 4 курсе поступлю в шад, если конечно осилю математику и меня не отчислят раньше.
Аноним 30/08/18 Чтв 21:23:19  1255537
Мне надоело страдать. Вы хоть там думаете как создать ИИ и прийти к технологической сингулярности?
Аноним 30/08/18 Чтв 21:25:31  1255539
>>1255537
Без тебя нихера не получается.
Аноним 30/08/18 Чтв 21:28:44  1255544
>>1255537
Человеку будут перерезать спинной мозг, подключать его к нейроинтерфейсу, затем с помощью боли и психоактивных веществ будут тренировать его нейросеть до исчезновения эго и полного подчинения командам, приходящим по интерфейсу. Вот и будет тебе ИИ, там уже и сингулярность не за горами.
Аноним 31/08/18 Птн 02:02:12  1255710
Sup /pr/
Может кто знаком с лекциями и курсами (мат.анализ, линейная алгебра, теория вероятностей) подготовленными преподавателями Математической лаборатории имени П.Л.Чебышева? Если знакомы, стоит углубляться для понимания сабжа или это пустая трата времени?
Важно ли место жительства? Я так понимаю найти работу проще если получил высшее образование в Москве, или СПб?
Аноним 31/08/18 Птн 06:14:56  1255740
>>1254992
Спасибо, похоже на правду. А теории игр всякие для эвристических штук не нужны?
Аноним 31/08/18 Птн 06:49:16  1255742
>>1255740
Не нужны. Кроме перечисленного очень редко нужны самые основы вариационного исчисления (функционалы и операторы), бывает такая нотация, например, у Вапника. Но современные хипстеры в неё сами не могут, так что в целом можно и не заморачиваться.
Аноним 31/08/18 Птн 09:51:41  1255798
>>1255544
>эти фантазии о подчинении человека машинами
Человек это белковый мешок с говном, взять с него нечего, кроме пердежа, он слабый, тупой и неэффективный механизм.
Аноним 31/08/18 Птн 14:37:59  1256009
>>1255747
>>1255798
> Человек это белковый мешок с говном, взять с него нечего, кроме пердежа, он слабый, тупой и неэффективный механизм.
На твоём примере это особенно заметно, чучелок. В целом же вся наука и техника со всеми её достижениями - продукт человека. Если лично ты кроме говна и спама тут ничего не производить, это не причина считать твои кукареканья про человека в целом чем-то серьёзным.
Аноним 31/08/18 Птн 15:05:07  1256018
>>1256009
>продукт человека
Сколько тебе, лет 25 есть? Значит за свою жизнь ты произвел больше двух тонн говна. Про другие твои достижения я не в курсе, извини.
Разжую еще раз свою мысль: машина, превосходящая по интеллекту человека, или хотя бы равноценная ему, никогда не будет пытаться подчинить человека. Потому что человека долго и дорого растить, обучать, воспитывать, он слаб, ленив,, капризен и легко выходит их строя, особенно в неблагоприятных условиях. Интеллект человека масштабируется очень плохо. Человек машинам просто не нужен.
Аноним 31/08/18 Птн 15:59:14  1256040
>>1256018
>попытки рассуждать в человеческих категориях про хуйню, которая не будет "мыслить" человеческими категориями.
Аноним 31/08/18 Птн 16:01:22  1256042
>>1255798
Я писал о подчинении людям, на базе которых и будет сделан ИИ. А эффективность их повысится с помощью reinforcement learning.
Аноним 31/08/18 Птн 16:07:56  1256049
opyatdvoika.jpg (371Кб, 699x515)
>>1256042
Так себе инновации
Аноним 31/08/18 Птн 16:13:05  1256054
>>1252855 (OP)
Черт возьми, как же сложно читать книгу по Deep Learning. Нужно было хорошо учить математику в школе и посещать лекции по вышке в университете. А теперь время ушло, мда.
Аноним 31/08/18 Птн 16:16:33  1256060
>>1256054
Нужно просто сесть и ботать, сесть и ботать, пока все не поймешь досконально. Это гораздо труднее, чем, пожалуй, любая другая тема в CS.

Попробуй учебник по квантовой механике всерьез разобрать, после этого ДЛБ легко пойдет, лол.
Аноним 31/08/18 Птн 16:27:13  1256069
>>1256060
Да мне учебник по арифметике и алгебре для начала нужно открыть. Эх, время упущено.
Аноним 31/08/18 Птн 16:34:17  1256076
>>1256060
На самом деле можно без квантовой механики, просто хороший учебник по линалу, например, Кадомцева.
мимо теорфизик
Аноним 31/08/18 Птн 17:01:25  1256098
>>1256018
> человека долго и дорого растить, обучать, воспитывать, он слаб, ленив,, капризен и легко выходит их строя, особенно в неблагоприятных условиях.
Шаламова читал? Он 20 лет в гулаге пахал в таких условиях, что нескольких роботов списали бы уже.
Аноним 31/08/18 Птн 17:10:14  1256103
>>1255275
Я работал и получал на 3 курсе. Через пол года заебало и уволился. Сейчас фулл стэком работаю. Закончил ПМИ если что.
Аноним 31/08/18 Птн 18:00:07  1256130
Вкатываюсь в машинное обучение, изучаю сейчас сверточные нейронные сети, в книжке kernel описывается записью 1x2x3

Поясните за эти числа, первые два это длина и ширина ядра, а что показывает третье число?
Аноним 31/08/18 Птн 18:03:17  1256134
>>1256130
Количество фильтров, либо третье измерение если это 3д свертка.
Аноним 31/08/18 Птн 18:32:07  1256156
>>1256130
Скорее всего высота, ширина, кол-во цветов.
Аноним 31/08/18 Птн 20:30:53  1256229
>>1256134
Значит сам фильтр это такая 2d матрица размерами 1 и 2, и таких фильтров 3 штуки (1x2x3) и вместе они образуют ядро?
Аноним 31/08/18 Птн 20:56:30  1256251
>>1256190
Коллега, как же вы могли не узнать алгоритм Такеши Содо и Бориса Митина?
Аноним 31/08/18 Птн 21:17:07  1256268
> постят несмешное
> выгоняют адекватов
> чому остались только вкатывальщики?
Аноним 31/08/18 Птн 21:42:32  1256276
>>1256229
У этого массива будет еще одно измерение - размерность входных данных. Если у тебя, например, ч/б картинка с одним значением на пиксель, то на первом слое будет как ты написал. Если она цветная с тремя значениями RGB в пикселях, то весь массив фильтров будет 3х1х2х3, где каждый фильтр это массив 3х1х2.
Аноним 01/09/18 Суб 00:28:52  1256348
>>1256103
А что случилось? Закончились интересные задачи?
Аноним 01/09/18 Суб 08:34:16  1256411
>>1256348
За эти полгода разобрался абсолютно во всех разделах ML и после этого интерес полностью пропал. По факту ты на работе будешь писать 20ти строчные скрипты на питоне, одни чистят данные вилкой, другие перебирают фичи/learning rate/оптимизатор и т.д, перезапуская обучение. Ничего интересного в этом нету, математика мне пригождалась максимум для того, чтобы дебажить модели. С теорией я после того как начал работать разобрался очень быстро, математика там детская, особенно после семестра функ анализа, поэтому розовые очки, нацепленные мне яндексом и прочими долбоебами слетели быстро.
Аноним 01/09/18 Суб 08:37:05  1256412
>>1256411
По факту я считаю, что любой выпускник ПМИ может за месяц разобраться во всем, что нужно, для того чтобы применять ML в индустрии и свободно идти работать кем угодно, фулл стэком, и в любой момент, когда задачу лучше решить с помощью ml он просто решает ее с помощью ml. Идти отдельно работать ДАТА САЕНТИСТОМ это то, что кто-то писал выше - либо слесарь, который услышал, что на этом можно поднять бабла, либо горе-выпусник топ вуза, который не смог нормально в код.
Аноним 01/09/18 Суб 08:37:49  1256413
>>1256412
фулл стэком, например*
Аноним 01/09/18 Суб 08:48:41  1256415
>>1256414
Потому что ты так вскукарекнул?
Аноним 01/09/18 Суб 09:00:27  1256420
>>1256417
Чем занимаешься? Пятистрочные скрипты пишешь?))))
Аноним 01/09/18 Суб 09:07:33  1256422
>>1256421
А, ну десятистрочные скрипты, сорь)))
Аноним 01/09/18 Суб 15:43:38  1256587
>>1256421
Чё такое эс?
Аноним 01/09/18 Суб 16:05:52  1256611
>>1256412
Не пробовал решить задачи которые не были решены ранее в ИИ? Ведь в данный момент довольно не плохо развивается dl.
Аноним 01/09/18 Суб 16:09:06  1256615
>>1256611
>dl
Чё это такое? Вы можете не пользоваться сокращениями, которые никто не знает?
Аноним 01/09/18 Суб 16:38:21  1256627
>>1256617
Распознавание негров и котов.
Аноним 01/09/18 Суб 17:05:30  1256643
>>1256627
Не решены.
Аноним 01/09/18 Суб 17:19:14  1256649
На каких языках нейроночки пишут?
Аноним 01/09/18 Суб 17:37:08  1256657
>>1256643
Там за последний год прирост на 0.02%
Аноним 01/09/18 Суб 17:56:41  1256670
>>1256617
Если ты помнишь эти модели являются предсказательными, т.е. работают с вероятностями. Нет смысла ждать что эти модели будут давать истинные ответы в 100% случаях. Мало вероятно то, что от ошибок удастся избавится полностью, так как мы не живём мире чистой математики, логики или идеи.
Аноним 01/09/18 Суб 19:27:32  1256731
Слыш, анон, что думаешь о книге Хайкина "Нейронные сети"? Стоит ли с нее начинать свое знакомство с машинным обучением? Почему? Стоит ли ее читать в дальнейшем (например после deeplearningbook.org)? Почему?
Аноним 01/09/18 Суб 22:04:27  1256834
>>1256615
deep learning
Аноним 01/09/18 Суб 22:06:47  1256835
>>1256731
>Хайкина "Нейронные сети"
>1994г.
Сам догадаешься?
Аноним 01/09/18 Суб 23:05:37  1256845
>>1256835
Ну у меня второе издание, 99-го, изданное на русском в 2006-м, может еще не потеряло актуальность? И есть еще третье - 2009.
Аноним 01/09/18 Суб 23:09:05  1256846
>>1256845
Если ты упрашиваешь меня разрешить тебе читать эту книгу, то цена вопроса - 0.5 биткоина.
Аноним 01/09/18 Суб 23:24:29  1256852
>>1256846
Деньги - не проблема. Как передать их тебе?
Аноним 01/09/18 Суб 23:38:54  1256861
>>1256852
На мой адрес шли: 173FKTCmwDvvnuTZhexUjkYpbqfBhGbg7Z
Как будет 6 подтверждений, я тебе сразу распишу, почему эта книга - единственное, что стоит читать. И ты сможешь читать ее с чувством глубокого удовлетворения.
Аноним 01/09/18 Суб 23:55:14  1256871
>>1256861
готово
Аноним 02/09/18 Вск 00:23:57  1256883
Есть БД сервиса с миллионом юзеров, нужно построить предсказательную модель, которая будет определять кто скоро может отписаться. Вопрос: как грамотно запилить фичи, соответствующие каким-то активностям юзера в разные периоды времени? Я даж хз как это у вас называется, чтобы гугол запрос сформулировать
Аноним 02/09/18 Вск 02:43:23  1256916
>>1256871
Чет ничего пока не пришло.
Аноним 02/09/18 Вск 03:11:50  1256917
>>1256426
А ты у нас xgboost руками пишешь? Или что? Все машинное обучение - вызов двух методов из библиотек - fit, predict. То, что ты занимаешься какими-то маняврированиями для того, чтобы убедить себя в том, что ты чем-то заумным занят никак на этот факт не влияет.
Аноним 02/09/18 Вск 04:43:49  1256923
15337295611480.jpg (168Кб, 400x533)
Диблернинх - это процентов 5 задач машоба, а именно - распознавание негров и котов. Тот факт, что весь хайп и все развитие именно в этой области объясняется тем, что барину нужен цифровой ГУЛАГ - тотальная слежка за всеми, для чего нужна обработка терабайтов данных с камер итд, та самая бихдата. NLP также развивается только в этом направлении. Так вот, их идеал - электронный мусор типа пелевинского Порфирия, который сам и следить за вами будет, и дела шить. Только полный дегрод этого не видит, ещё и верует, что это единственный возможный машоб.
>>1256731
Хайкин точно не для начинающих. У него глава про перцептроны интересная, остальное можно не читать.
Аноним 02/09/18 Вск 07:01:51  1256935
>>1256930
> Расслабь батоны, технологиями на нейронках ни хуя у них не выйдет
Китайцы уже пилят систему, которая присваивает человеку рейтинг благонадежности в зависимости от его поведения. В технологии цифрового ГУЛАГа миллиарды вкладываются, как минимум, весь прогресс машоба идёт только в этом направлении. Так что все у них выйдет, не сразу конечно.
> Опять нет, там тишь и благодать, особенно все что касается русского языка.
Весь прогресс NLP это контекстная реклама и всякий сентимент анализ, что тоже элементарно использовать для составления профиля на человека и потом классификация по благонадежности.
Аноним 02/09/18 Вск 08:20:33  1256944
>>1256939
> Смотря что подразумевать под NLP, для меня это семантика, вся современная залупа называющая себя NLP фактически хайпожорство.
Ну да, семантика. Чтобы автоматически следить за всем, что люди пишут. Сейчас самая топовая по НЛП контора - пейсбук аи ресерш, word2vec, вот это все. До этих алгоритмов вообще не было возможности строить модели с миллиардами слов. И по чистой случайности у того же цукерберга самая крупная соцсеть в мире. Весь хайп в машобе направлен на технологии, позволяющие гебне глубже залезть в жопу гражданину, глупо отрицать факт. Другие области применения вообще не развиваются.
Аноним 02/09/18 Вск 08:37:02  1256946
>>1256944
В фейсбуке все силы аи ресерш идут на то, чтобы заставить хомяков больше кликать на рекламу. Да и в гугле тоже. Качество сервиса там уже третьем месте.
У них основная метрика - доход от рекламы, поэтому развивается направление так однобоко.
У нашей гэбни метрика - количество посадок, они и без диплернинха тебя набутылят, так что не переживай.
Аноним 02/09/18 Вск 09:19:08  1256958
>>1256946
Вот кстати, ютуб недавно проанализировал свою йобабигдату на кластере из 100500 GPU, и пришли к выводу, что рекламу нужно сделать неотключаемой. Доходы ютуба и владельцев каналов только вырастут. Гениально, блядь!
Аноним 02/09/18 Вск 09:24:21  1256961
>>1256956
> Это говно мягко говоря работает только на аналитических недоязыках как англопараша.
Тыскозал? У них на сайте готовые модели на 137 что ли языках. Это не ты тот дебилок, создающий в пораше треды про наружность английского?
> там это, статистика, семантикой там и не пахнет
Будто в семантике есть что-то кроме статистики. Смысл слова - это его использование в определённом контексте (в окружении других слов), что word2vec и восстанавливает по имеющимся данным. Или у тебя магическое мышление какое-то? Что по твоему есть семантика?
Аноним 02/09/18 Вск 10:05:37  1256972
>>1256969
>>1256971
Пиздец ты тупень. Впрочем, для этой подмывальни норм. Написал хуйню и рад, ещё и кукарекает про предметную область.
Аноним 02/09/18 Вск 10:18:45  1256979
>>1256974
Сейчас бы что-то доказывать чучелу, которое не знает как вообще skipgram тот же работает и что делает. Пример выше - лучшее подтверждение.
Аноним 02/09/18 Вск 11:03:29  1256990
>>1252855 (OP)
Боже мой, какая сложна область! Столько математики и различных формул - ничего не понятно! Уууууу...
Аноним 02/09/18 Вск 14:40:13  1257078
мдааа бля лучше стану обычным прогером
Аноним 02/09/18 Вск 14:43:33  1257081
Зачем в автоэнкодере морды лица выход сравнивают с warped входом, а не с оригиналом? В чем подвох?
Аноним 02/09/18 Вск 18:03:36  1257254
BYfDbjL.jpg (103Кб, 550x550)
>>1257078
ВСЕ ИННОВАЦИИ,
ВСЕ НОВЫЕ ТЕХНОЛОГИИ,
ВСЕ ДЕНЬГИ,
В ИТ БЛИЖАЙШИЕ 20 ЛЕТ БУДУТ ИДТИ ТОЛЬКО ИЗ МАШОБА.
Аноним 02/09/18 Вск 19:59:43  1257331
всё.webm (415Кб, 1280x720, 00:00:03)
>>1257254
В результате через 20 лет люди станут не нужны.
Аноним 02/09/18 Вск 20:29:12  1257363
image.png (45Кб, 1199x622)
Анон, у меня вопросик. Я вот на питоне написал свою нейросеть. Просто обучаю ее решать XOR. Так вот с однослойной сетью всё нормально. Но если я делаю больше одного скрытого слоя, то получается вот такая картина и обучение не двигается. В чем собсна проблема? Надо намного больше ждать или я где то объебался? Может с SGD дип лёрнинх не работает?)
Аноним 02/09/18 Вск 21:17:49  1257419
>>1257331
Да нет, видна веселая тенденция на примере толоки. Те кто должен пахать как сучки на заводе сейчас сидят в тепленьких домиках и под пивас обучают нейросети.
Аноним 02/09/18 Вск 21:29:02  1257430
>>1257419
То есть например люди решат что они хотят жить в домах. Они садятся за пол года обучают класс роботов которые умеют строить дома. Все, человечество навсегда обеспечено домами. Потом люди решают что они хотят пить пиво. Садятся и обучают класс роботов, которые умеют варить пиво. Теперь люди живут в домах и пьют пиво и нихера болтше не делают. Круто же ну?
Аноним 02/09/18 Вск 21:43:38  1257457
>>1257419
Сори, но на толоке они не зарабатывают прожиточный минимум. Они просто сидят на шее у родителей. Когда родителей не станет, а до пенсии будет еще 20-30 лет, тогда и посмотрим что там их ждет на толоконном рыночке. Органы своих детей продавать будут.
Аноним 02/09/18 Вск 22:02:38  1257477
>>1257430
Счастливая долгов жизнь ооо...
И не надо будет умирать...
Аноним 02/09/18 Вск 23:53:31  1257619
1535921612409.jpg (32Кб, 512x512)
Слыште бля, ни разу не работал с этими вашими нейросетками, но принцип работы понимаю. Хочу сделать сетку, которая будет генерировать мемы обучаясь на мемы парсящиеся из контактика. В этих мемах при помощи библиотеки васяна считывается текст, а пикча ищется в картинках гугла, чтобы по этом, по ответу на то, что на ней изображено сетка сама смогла искать и парсить картинки с гугла. Чо тут у вас за среды юзаются и кауие специальные языки? Как я понял, тут они не дефолтные.
Аноним 03/09/18 Пнд 00:46:01  1257635
>>1256883
Попробуй вот тут http://www.machinelearning.ru/wiki/index.php?title=%D0%90%D0%BB%D0%B3%D0%BE%D1%80%D0%B8%D1%82%D0%BC%D1%8B%2C_%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B8%2C_%D0%B0%D0%BB%D0%B3%D0%B5%D0%B1%D1%80%D1%8B лекцию "оценка вероятности и среднего".
Аноним 03/09/18 Пнд 00:46:46  1257636
>>1256917
>Все машинное обучение - вызов двух методов из библиотек - fit, predict
Пиздец.
Аноним 03/09/18 Пнд 00:54:57  1257640
>>1257635
Спасибо! Я так понимаю, что видео доступно только для его студентов, есть только эта статья: https://bijournal.hse.ru/data/2014/04/15/1320713004/8.pdf
Аноним 03/09/18 Пнд 02:36:53  1257669
>>1257640
Не знаю, что там с видео случилось, я когда-то спокойно смотрел. Там было то же самое, что и в презентации.
Аноним 03/09/18 Пнд 02:43:36  1257670
>>1257636
Вся анатомия это всунул-высунул.
Аноним 03/09/18 Пнд 03:14:46  1257676
>>1257670
Вся физика это упавшее на голову яблоко.
Аноним 03/09/18 Пнд 08:25:56  1257714
>>1255275
Я работаю и получаю как сеньер-программист, но по факту не кожу нонстопом, а имею возможность отдохнуть - тут обучение нужно подождать, там нанял людей для сбора данных и тоже ждешь. Это приятно, когда смотришь на программистишек, которые вынуждены постоянно кодить, меняя свое время на еду. А у меня скрипты из 10 строчек.
При развитии любой области есть два крайних подхода, хипстерский-хайповый, когда рисуются золотые горы, и двачерский депрессивно-старперский - когда говорится о том, что новое нихуя не новое, нового не бывает и вообще мир идет не туда.
Не правы оба подхода, но на двачах, естественно, дохуя токсичных старперов, которым лишь бы повыебываться. Predict, fit, данные вилкой. Хуита и понты это все. При чем основной загон идет из того, что просто заниматься бизнес-задачами, как в любом соседнем треде, здесь обязательно зашквар. Слесари, хули.

Что могу сказать, что индустрия не кагл, это анти-кагл, датасеты важны, и чем больше у тебя железа, тем важнее именно датасеты. Но "чистить данные вилкой и обезьяну можно научить" - это чушь. Нельзя. Даже банальные глюки на неграх - это проеб в данных, что говорить о чем-то более сложном и нерегулярном. Если брать изображения, нужно знать computer vision, если звук - DSP, и так далее. Добыча датасета - отдельная история, может понадобиться парсер нахуячить с мульитредингом и асинхронностью, может стать организовать толпу макак (как минимум дать хорошее ТЗ манагеру), скорее всего и то, и то, сначала парсером качаешь ютуб, потом макакингом это дело размечаешь. Один раз мне пришлось отреверсинжинирить формат проприетарной библиотеки файлов одного коммерческого продукта. Это весело, веселее, чем лепить бесконечные круды и фронтэнд к ним.

>>1252879
>Я еще раз всем напомню: смысла в машобе нет никакого, если у вас нет топового математического образования.
Это чушь. В машобе не больше математики, чем в химии. То есть она есть, но хорошим химиком тебя математика не сделает. Нужна интуиция прежде всего. Она нарабатывается за счет IQ и опыта. При чем опыт это не только мысли, какую архитектуру выбрать, но и организация процесса исследования. Без опыта любая проблема кажется нерешаемой - загрузил датасет, нажал fit, а у тебя результат чуть лучше подбрасывания монетки. И что дальше?
>В ближайшие 2 года ожидается массовый наплыв макак в машоб и датасаенс, и чтобы с ними конкурировать, придется иметь топовое образование.
Как под копирку из перезвоним-треда о программировании в целом. Да и ИТТ пару лет назад те же самые разговоры были про СКОРО. Спойлер: нихуя не будет и это маняоправдания, лишь бы ничего не делать.
>>1253183
>Как будто с образованием там что-то светит. Почитай ODS, раздел welcome - 99% историй о себе суть два варианта:
Это даже не ошибка выжившего, это... не знаю, ошибка еще не летавшего?
>>1256643
Решены. Это вот типично старперский выебон. Стыдно быть таким.
>>1256923
>Диблернинх - это процентов 5 задач машоба, а именно - распознавание негров и котов.
Сейчас в весь машоб пропихиваются нейронки, потому что они способны давать фичи даже для банального knn. С нейронками веселее везде.
Еще обработка сигналов. Вон nvidia уже ускоряют рейтрейсинг, фильтруя шумное изображения с недостаточным числом лучей. Применений до жопы. Если в твоем городе работодатели делают очередной object detection, то можно посочувствовать. По мне лучший способ вкатиться - это уже работая на фирме предложить конкретное решение конкретной задачи фирмы.
Аноним 03/09/18 Пнд 10:10:21  1257740
>>1257714
> Сейчас в весь машоб пропихиваются нейронки, потому что они способны давать фичи даже для банального knn. С нейронками веселее везде.
Пропихивается только то, что нвидии продажи поднимет. Вопрос в другом - что дал диплернинх по сравнению с другими алгоритмами машоба в областях, не связанных с картинками, неграми и котами? Прогнозирование временных рядов, детекция отклонений в работе промышленного оборудования, анализ физиологических сигналов, ЭКГ там, это все, итд. Хуй да нихуя. Более того, существуют дегроды, которые веруют, что эти задачи и не нужны, нужно только распознавание с камер, сентимент анализ и прочие технологии цифрового ГУЛАГа.
Аноним 03/09/18 Пнд 11:06:31  1257759
>>1257723
>99% из которых это впаривание рекламы, 0.1% детектирование негров с хуевым результатом, 0.8% остальная нерабочая хуета,. Ты точно не школьник?
С дивана тебе конечно охуенно видна статистика.
>Вопрос в другом - что дал диплернинх по сравнению с другими алгоритмами машоба в областях, не связанных с картинками, неграми и котами
Вопрос в другом: что дал питон по сравнению с другими языками в областях, не связанных с вебом и машобом. Программирование атомных реакторов, игры для восьмибитных платформ, МК61. Хуй да нихуя.
Ты заебал с этой старперской демагогией, которая создана исключительно, чтобы щекотать твое ЧСВ. Ты - говно, запомни это.
Аноним 03/09/18 Пнд 11:33:40  1257776
>>1257767
>>1257769
Спасти. Манямирок. Любой. Ценой.
Аноним 03/09/18 Пнд 14:30:17  1257893
>>1257759
> Ты заебал с этой старперской демагогией, которая создана исключительно, чтобы щекотать твое ЧСВ. Ты - говно, запомни это.
Это не демагогия, это неприятная правда. Нынешний хипстерский хайп по впариванию продукции нвидия к машобу относится очень косвенно. За последние лет 5-10 весь прогресс - увеличение продаж нвидии на десятки % и улучшение распознавания негров на пару %. Дурочки же вроде тебя уверовали что нынешнее сойбойство это и есть весь возможный машоб и его вершина, а все остальное - устаревшая хуйня.
Аноним 03/09/18 Пнд 15:15:18  1257918
Что такое пятистрочник, мимо пробегал.
Аноним 03/09/18 Пнд 15:16:32  1257921
>>1257893
топовый совет: покупайте акции нвидии пока вся эта хуйня не ебнется - последний год +50% в далларах
Аноним 03/09/18 Пнд 15:21:23  1257924
>>1257921
>топовый совет: покупайте акции нвидии пока вся эта хуйня не ебнется - последний год +50% в далларах

Она сейчас уже децл подупадет из-за рейтрейсинга вместо попугаев, надо было на хайпе 2 года назад вкатывать.
Аноним 03/09/18 Пнд 16:40:34  1257979
Winner-results-[...].png (12Кб, 771x401)
>>1257893
За последние 10 лет на пару процентов? Манямирок не треснет? За последние 10 лет задача распознавания с уровня неюзабельная хуйня превратилась в решенную задачу. И только где-то с реснетов уже не представляет особого интереса. Потому что ее решили. И давно пошли вперед. Только чсвшным демагогам на это похуй, они старательно охраняют свой манямирок.
Аноним 03/09/18 Пнд 17:22:42  1258015
>>1258011
Демагог перешел на whataboutism. Как предсказуемо.
Аноним 03/09/18 Пнд 18:23:16  1258100
>>1257979
Игрушечный imagenet научились распознавать на 20% лучше, ебать достижение, апплодирую стоя. Ты наверное и сам понимаешь, что весь этот маняпрогресс - следствие увеличенных в разы вычислительных мощностей. Что в самих нейроночках улучшили? Релу вместо сигмоидов? Все это не более чем асимптотически-эффективные методы повышения качества, которые Вапник ещё в 60-х годах обоссал, ибо это математически обоснованный путь в никуда. Нвидии продажи поднимете, а негры так и будут бугуртить, что их гугл классифицирует как горилл.
Аноним 03/09/18 Пнд 18:27:19  1258104
>>1257979
>с уровня неюзабельная чепуха превратилась в решенную задачу
Но ведь это неправда. Я сейчас гоняю разные face detection на хорошем видео, обсираются абсолютно все.
Аноним 03/09/18 Пнд 18:37:56  1258119
>>1258035
нет, это не реальная задача, а никому не нужна ерунда (которая требует получения авторских прав, и которую без разрешения издательства даже выполнять нельзя) как и весь русский язык
Аноним 03/09/18 Пнд 18:49:16  1258124
>>1258035
Речь шла о распознавании негров, а не OCR. Поэтому то, что ты заявляешь, это whataboutism. Когда решат OCR, ты будешь ныть, что нейронки не распознают рукописный текст, написанный пьяным сантехником Васей на иврите.
Аноним 03/09/18 Пнд 18:54:05  1258132
негры.jpg (50Кб, 634x536)
>>1258124
>Речь шла о распознавании негров, а не OCR.
С неграми тоже все далеко от идеала.
Аноним 03/09/18 Пнд 19:05:11  1258143
>>1257893
карточка нвидиа просто считает матрицы, на которых ты можешь считать и свм, и деревья и новый метод, который ты придумаешь и который заменит нейронки хоть в одной из обозначенных тобою областей
Аноним 03/09/18 Пнд 19:11:35  1258148
>>1258100
Маняпрогресс - это твое нытье на протяжении нескольких лет.
Не "научились распознавать на 20% лучше", а уменьшили ошибку в 8.5 раз и довели ее до уровня ниже человеческого. По сравнению с тем, что было в 2011 (25% ошибок - ну получше, чем бросать монетку, да) - это пиздец какой прогресс.
>Что в самих нейроночках улучшили?
relu, inception (2014), residual connections (2015), batch normalization (2015), adam (2014) - это только по классификации, только то, что лежит на поверхности. С 2011 как минимум раз в год было крупное улучшение. Потом, после 2015, классификация перестала быть интересна - есть задача, составляй датасет и ебашь. Там эти проценты упираются в свойства самого датасета и дроч вокруг них. Это да, скучно. Но прогресс пошел в оптимизации под мобильные платформы, в смежных задачах типа object detection и segmentation и т. д.
Аноним 03/09/18 Пнд 19:23:00  1258165
>>1258148
>inception (2014)
Всякую хуйню под собачек и бананы разрисовывать - это в 2015 было, в июле. И в каком же месте это улучшение? Все, что ты про улучшения написал - это попытки подкрасить покойника, чтобы не так пиздецки выглядел. Это не решает главную проблему нейроночек -
>Все это не более чем асимптотически-эффективные методы повышения качества,
а просто немного замазывает ее.
>Но прогресс пошел в оптимизации под мобильные платформы, в смежных задачах типа object detection и segmentation и т. д.
Т.е. в область, актуальную только для цифрового гулага.
Аноним 03/09/18 Пнд 19:37:53  1258182
nnarch1-1.png (44Кб, 660x432)
>>1258165
>Всякую хуйню под собачек и бананы разрисовывать
Вся суть. Для специалиста inception - это вид архитектуры, которая дает меньше параметров при том же перформансе (смотри пикрелейтед - архитектуры типа inception являются топовыми для заданного числа операций, дальнейший шаг - automl). А у тебя ассоциация - хайпожорские мемасики. Поэтому ты вокруг всех хайпожорами и называешь - реальных-то знаний ноль.
>Все, что ты про улучшения написал - это попытки подкрасить покойника, чтобы не так пиздецки выглядел.
Нет, это охуенные улучшения, которые ты не принимаешь, будучи цифровым луддитом. Каждое уменьшало ошибку ну хотя бы в два раза.
>Т.е. в область, актуальную только для цифрового гулага.
Confirmation bias
Аноним 03/09/18 Пнд 19:49:34  1258197
>>1258182
>Нет, это охуенные улучшения, которые ты не принимаешь, будучи цифровым луддитом. Каждое уменьшало ошибку ну хотя бы в два раза.
Ты просто не видишь в этом повторение старых попыток так же подмазать перцептроны, у Хайкина например хорошо описаны все эти optimal brain damage, optimal brain surgery и прочая уличная магия с оптимизацией структуры перцептронов. Все это тоже давало какие-то смешные % к качеству, и кто сейчас, в 2018 обо всех этих алгоритмах помнит кроме 1,5 читателей Хайкина? Сейчас то же самое с поправкой на масштабы, как я писал, барину нужен цифровой мусор, который будет следить за всеми, отсюда и гранты и финансирование и прочий хайп. Ты просто не можешь взглянуть на ситуацию со стороны.
Аноним 03/09/18 Пнд 19:50:31  1258199
>>1258166
Эта задача сложнее "распознавания негров", потому что негр распознается вне контекста feed forward нейронкой за один прием. Текст же воспринимается не так. Если тебе дать некачественный текст, разбить его на символы и дать его распознавать посимвольно в случайном порядке, ты соснешь, потому что ты, читая текст, видишь контекст - слово (а взрослый человек читает словами целиком) в предложении.
Поэтому для OCR нужна комбинация из CNN и RNN-сетки - а значит и языковые модели и много чего прочего. По уровню это примерно как научить младенца отличать кошку от собаки и научить его же читать слова кошка и собака. Если ты думаешь, что OCR - "это наиболее простая прикладная задача для кампутервижен", то, как я и писал выше, с дивана охуенно рассуждать.
>вот рекомендация хрючева рчередной потребляди это да, это огого
С чего ты взял, что recommender systems массово реализуются на нейронках?
Аноним 03/09/18 Пнд 19:55:15  1258210
что такое машоб?
Аноним 03/09/18 Пнд 20:03:26  1258221
>>1257757
>пиздецки нереально
>кетай уже реализовал
Аноним 03/09/18 Пнд 20:11:49  1258230
>>1258197
Правильно написать "кто об этом помнит, кроме меня, любимого, я круче вас, лошки-слесари". Ты просто не можешь взглянуть ситуацию за пределами своего охуевшего ЧСВ. А я могу, потому что мне в общем-то похуй. Если бы мне платили за гулаг, я бы работал на гулаг. Но мне не платят за гулаг, мне платят за другое. И предложения по работе падают за другое.
Я напишу тебе, что писал больше года назад: взял бы очередного нафталинового автора, нашел бы забытую магию, имплементировал ее и победил в ILSVRC. Однако за все эти несколько лет ты так нихуя и не сделал. И ответ на эту загадку: ты натягиваешь сову на глобус и тебе кажется, что люди писали об одном и том же, задним умом. На самом деле это нихуя не так. Какие-то общие предпосылки могут быть, но не конкретные вещи. У меня, например, в моей архитектуре используются формулы середины прошлого века для инициализации некоторых параметров. Значит ли это, что это не я придумал ноу-хау, а люди из середины прошлого века? Нет, не значит. А то так можно докопаться до того, что все придумал лично Фурье. Это демагогия. Любой научный прогресс на чем-то стоит, но из этого стояния не следует, что он отсутствует.
В общем, есть луддит, отрицающий промышленную революцию в Англии только из-за существования парового двигателя Герона. Факт в том, что Герон не додумался до промышленной революции, а в Англии до нее додумались. Дальше луддит рассуждает о том, что Герон-то охуенчик, только у него не было хорошей стали, а современная революция - это не революция вовсе, это так, хуйня. Вокруг между тем мир меняется стремительно, паровозы появляются, пароходы - хуевые, они не могут даже уголь перевезти, на котором едут, но луддит продолжает отрицать наличие какого-либо прогресса со времен Герона Александрийского.
Аноним 03/09/18 Пнд 20:24:31  1258242
>>1258210
это твоя помоечка
Аноним 03/09/18 Пнд 21:22:20  1258315
>>1257430
>Круто же ну?
Конечно, круто. Приходит барин и говорит, теперь на дома построенные роботами налог, а также налог на пиво и самих роботов, налог на видеокарты и вообще все потенциально опасные эвм надо регистрировать.
Аноним 03/09/18 Пнд 21:27:02  1258321
>>1258230
>Я напишу тебе, что писал больше года назад: взял бы очередного нафталинового автора, нашел бы забытую магию, имплементировал ее и победил в ILSVRC. Однако за все эти несколько лет ты так нихуя и не сделал.
Я тут неоднократно описывал не только забытую магию, но и свои идеи. А так же писал, что не осилю написать имплементацию. Никто не заинтересовался.
Аноним 03/09/18 Пнд 21:30:21  1258325
>>1257714
>В машобе не больше математики, чем в химии.
так-то да но в вакансиях в требованиях зачастую пишут
сильная математическая подготовка
или
высокая мат грамотность
чо они хотят?
чтоб я был ниибаца математиком?
или просто чтоб не был дата обезьяной?
Аноним 03/09/18 Пнд 22:05:44  1258358
>>1258230
> лудиты лудиты старперы вы все лудиты мам
Сколько бетховенов-то в семнадцатом купил, прогрессор?
Аноним 03/09/18 Пнд 22:13:04  1258366
>>1258166
Была бы востребована, были бы приложения хотя бы на правилах и opencv, а не один ABBYY. Даже Гугл бросил оцифровывать весь этот библиотечный фонд, так как везде копирайт, все достойные научные работы оцифрованы. Ни одного повода, зачем это нужно, кроме своих хотелок, ты никогда не приводил.
Аноним 03/09/18 Пнд 22:16:56  1258370
>>1258325
Если большая компания и хороший миддл, то хотят, чтобы ты в лстм мог расписать бэк-пропегейшн с батч-нормализацией - вопросы такого уровня, если джуниор, то просто не хуже интервьюера, особенно его любимую область, а это уровень от троечника в школе, до олимпиадника
Аноним 03/09/18 Пнд 22:46:30  1258377
>>1254605

это как с тянками - пока ты мнешься с ноги на ногу и не можешь ей признаться Роберт хватает её и просто ебёт
Аноним 03/09/18 Пнд 22:51:51  1258382
image.png (334Кб, 750x421)
>>1256018

Киберчую
Аноним 04/09/18 Втр 00:31:01  1258460
>>1258370
слишком толсто, попробуй ещё
Аноним 04/09/18 Втр 08:08:04  1258528
>>1258325
Это хуйня, ты в итоге все равно будешь как даун пятистрочники писать, просто повод платить поменьше.
Аноним 04/09/18 Втр 09:45:19  1258563
fuzzy.png (38Кб, 1130x510)
>>1258528
Сверху "получаю как синиор" написал, что большая часть кода - это обработка данных. И если ты посмотришь кернелы на каггле, там не 5-строчек, а в районе 100-500, но больше 1000-строк у меня, например, почти нет скриптов - это да. Но на питоне много все равно не пишут, в gensim word2vec.py - это 2000 строк.
Или ты хочешь сказать, что на Джанге прям много строк пишут?
Частично это объясняется крайней высокоуровневостью питона, так как не нужно писать фабрику фабрики классов и передавать указатель на указатель для хэллоуворлда, частично тем, что на Питоне не пишут десктоп и сложную бизнес-логику.
Ну, и вы надоели, был давным-давно нормальный тред - а теперь ерунда, даже на пикабу лучше машоб тред, чем здесь. Что вам мешает обсуждать не нейронки, а другие вапникоугодные методы, которыми решаются стоящие задачи и продемонстрировать их на гитхабе? Так сказать, просвятить массы. Если кто-нибудь продемонстрировал бы, что какая-нибудь фаззи-логика работала бы на практике лучше других методов, был бы хайп по ней (хотя по ней на самом деле по нечеткой логике был хайп, просто утята с тех пор не перестроились).
Аноним 04/09/18 Втр 09:47:42  1258565
svm.png (45Кб, 1153x600)
>>1258563
и аналогично
Аноним 04/09/18 Втр 10:04:02  1258574
>>1258565
Ты понимаешь, что про глубокое обучение трубят из всех труб и это как бы огромная тема, а о существовании метода опорных векторов и нечеткой логики знают лишь "избранные".
К чему эти картинки?
Аноним 04/09/18 Втр 10:06:22  1258579
>>1258574
>Ты понимаешь, что про глубокое обучение трубят из всех труб и это как бы огромная тема, а о существовании метода опорных векторов и нечеткой логики знают лишь "избранные".
Ты ебанулся. SVM проходится в любом курсе по ML до персептрона, не говоря уже о DL.
Аноним 04/09/18 Втр 10:10:09  1258586
>>1258563
>Сверху "получаю как синиор" написал, что большая часть кода - это обработка данных. И если ты посмотришь кернелы на каггле, там не 5-строчек, а в районе 100-500, но больше 1000-строк у меня, например, почти нет скриптов - это да.
Ну у меня в model.py 251 строчка, один хрен это очень мало с точки зрения ментального здоровья программиста.
>Ну, и вы надоели, был давным-давно нормальный тред
Хуй знает, сколько ни заходил бы, всё время нытье об отсутствии прогресса. Это нормально для двачей и его публики.
Аноним 04/09/18 Втр 10:13:25  1258590
>>1258563
>Если кто-нибудь продемонстрировал бы, что какая-нибудь фаззи-логика работала бы на практике лучше других методов,
Я в одном из предыдущих тредов постил ссылку на пейпер, в котором показано, что квантовая логика тривиально представима в виде нечеткой, даже менять ничего не нужно, просто соотнести термины. Т.е. квантовые вычисления, за которыми будущее - это просто другое название нечеткой логики.
Аноним 04/09/18 Втр 10:19:44  1258595
>>1258593
Луддиту с мейлру-то виднее.
Аноним 04/09/18 Втр 10:20:29  1258596
Кстати, по поводу Вапника и ДЛ, нашел прекрасные рассуждения здесь https://cs.stackexchange.com/questions/75327/why-is-deep-learning-hyped-despite-bad-vc-dimension
Приходит такой петушок со словом ХАЙП в заголовке вопроса, а в ответах его дружно кормят хуями, а он как попугай продолжает повторять, что ДЛ-сети не умеют обобщать. Напоминает местных экспертов с мировым именем.
Аноним 04/09/18 Втр 10:22:07  1258597
>>1258579
Ты дурак?
Любая домохозяйка слышала о DL. Любая ли домохозяйка слышала о SVM?
Ты понимаешь, что гуглом пользуется не только люди которые курсы проходили?
Аноним 04/09/18 Втр 10:24:00  1258599
>>1258597
>Любая домохозяйка слышала о DL
Много домохозяек знаешь, которые сразу бегут гуглить хуйню от журнализдов?
Аноним 04/09/18 Втр 10:28:19  1258602
>>1258596
>прекрасные рассуждения
>The answer why CNNs are used is simple: CNNs work much better than anything else.
>It's not really understood why deep learning works as well as it does,
>Приходит такой петушок со словом ХАЙП в заголовке вопроса, а в ответах его дружно кормят хуями
Рассказывая, что диблернинх это магия такая, никто не понимает как оно работает, но как-то вот работает. Это религия называется. И я уже сто раз писал, в какой области оно "лучше"-то? В распознавании негров?
Аноним 04/09/18 Втр 10:32:14  1258605
>>1258597
Тебе на графике наглядно показали, что "фаззи-логика работала бы на практике лучше других методов, был бы хайп по ней (хотя по ней на самом деле по нечеткой логике был хайп, просто утята с тех пор не перестроились).". Хайп по нечеткой логике действительно был, ты просто тогда еще не родился, а с тех пор хайп ушел, потому что никаких прорывов она не дала.
Вот, например: https://old.computerra.ru/2001/415/198010/
Популярный бумажный компьютерный журнал пишет об этом в 2001 году.
Аноним 04/09/18 Втр 10:34:37  1258607
>>1258602
>Рассказывая, что диблернинх это магия такая, никто не понимает как оно работает, но как-то вот работает.
В этом плане дипленинг как квантовая механика, он работает и все. Чтобы понять, как он работает, нужны столетия исследований manifold'ов. Это не религия, он достоверно и воспроизводимо работает на куче разных задач.
>И я уже сто раз писал, в какой области оно "лучше"-то?
А в какой он ХУЖЕ чего бы то ни было?
Аноним 04/09/18 Втр 10:41:16  1258615
>>1258607
>Чтобы понять, как он работает, нужны столетия исследований manifold'ов
Наркоман ты что ли? Там нет ничего кроме умножения матриц, какие столетия исследований? Насчет "работала бы лучше всего остального", ты про "no free lunch theorem" что-нибудь слышал? Нет методов, работающих лучше всех во всех вообще применениях. Диплернинх лучше всех только в технологиях цифрового гулага, отсюда и хайп.
Аноним 04/09/18 Втр 10:49:19  1258623
>>1258605
Хайп надо искать по arxiv, а не по трендам гугла
Аноним 04/09/18 Втр 11:10:58  1258645
>>1258615
> Там нет ничего кроме умножения матриц, какие столетия исследований?
Лол. Есть - нелинейные операторы. Если бы там были одни матрицы, любая нейронка бы сводилась к линейному классификатору. А если ты это знал, то ты совсем того - посмотри на фрактал жулиа, может поймешь, какие красоты создает пара нелинейных действий.
> Насчет "работала бы лучше всего остального", ты про "no free lunch theorem" что-нибудь слышал? 
Я-то слышал. А ты?
>Нет методов, работающих лучше всех во всех вообще применениях
Нет целевых функций, которые сходятся быстрее всех на всех датасетах. Из этого не следует ничего. Начиная с того, что дл это не целевая функция.
>Диплернинх лучше всех только в технологиях цифрового гулага, отсюда и хайп.
Confirmation bias. Я назову тебе кучу применений, которые никакого отношения к слежке не имеют, но ты в очередной раз это проигноришь.
Аноним 04/09/18 Втр 11:21:52  1258658
>>1258602
да, хотя бы в распознавании негров, а еще в распознавании и синтезе речи, игре в атари и го, в синтезе изображений - области, на которых до сих пор держится основной хайп. Ты только зайди и посмотри автоматические субтитры на ютубе для английского.

раньше люди мечтали о том, чтобы распознавать негров, но почему-то не могли
http://www.image-net.org/challenges/LSVRC/2010/ILSVRC2010_NEC-UIUC.pdf
Аноним 04/09/18 Втр 11:26:57  1258666
>>1258664
Вот тогда и поговорим/Вы находитесь здесь
Какие же отрицатели прогресса одинаковые
Аноним 04/09/18 Втр 11:31:40  1258672
То есть прикол в чем, сейчас луддитам нужно, чтобы нейронка не делала ошибок как носитель языка. Не меньше. Не будет - вот тогда и поговорим. Тогда луддит будет вонять еще по какому-либо поводу - например что акцент не тот.
Аноним 04/09/18 Втр 11:35:04  1258677
>>1258664
https://youtu.be/sZnFbu0F7YI
https://google.github.io/tacotron/publications/tacotron2/
Аноним 04/09/18 Втр 11:39:06  1258684
>>1258677
https://youtu.be/sZnFbu0F7YI?t=4h
время 4часа:00
Аноним 04/09/18 Втр 12:03:42  1258696
>>1258672
>То есть прикол в чем, сейчас луддитам нужно, чтобы нейронка не делала ошибок как носитель языка. Не меньше. Не будет - вот тогда и поговорим. Тогда луддит будет вонять еще по какому-либо поводу - например что акцент не тот.
Да ладно, хоть бы вообще что-то работоспособное было. Если все так заебись с синтезом речи, где можно послушать озвучивание текста например?
Аноним 04/09/18 Втр 12:08:00  1258697
>>1258615
>ты про "no free lunch theorem" что-нибудь слышал?
бля ,чел ты хуйню сказал
определение-то правильное но в таком контексте....
Аноним 04/09/18 Втр 12:13:02  1258701
>>1258689
пример включает докладчик ровно на 4 часу =/
Аноним 04/09/18 Втр 12:20:42  1258705
>>1258696
https://cloud.google.com/text-to-speech/
Аноним 04/09/18 Втр 12:26:52  1258709
>>1258689
> для синтеза есть простые и рабочие решения без нейроговна
Речь шла о том, что в области дл есть только инструменты слежки. Как только тебе дали что-то другое - ты сменил тему. То есть оказывается ты просто тупой и неадекватный хейтер.
Что касается аргумента "Нахуя нам паровоз, мы и на лошадях справляемся", то он такой же как "ну вот тогда и поговооим".
Аноним 04/09/18 Втр 12:28:24  1258710
И Коско на ваш диплернинх помочился https://www.edge.org/response-detail/26200 он тоже луддит, да? Тезисно:
>Machines don't think. They approximate functions. They turn inputs into outputs.
>"Intelligent" machines approximate complex functions that deal with patterns.
>The real advance has been in the number-crunching power of digital computers. That has come from the steady Moore's-law doubling of circuit density every two years or so. It has not come from any fundamentally new algorithms. That exponential rise in crunch power lets ordinary looking computers tackle tougher problems of big data and pattern recognition.
>Punchline: Both of these popular AI algorithms are special cases of the same standard algorithm of modern statistics—the expectation-maximization (EM) algorithm. So any purported intelligence involved is just ordinary statistics after all.
>It's a good bet that tomorrow's thinking machines will look a lot like today's—old algorithms running on faster computers.

Машобчик никуда не ушел от классической статистики, и вряд ли вообще уйдет. Весь этот ваш диблернинх - частный случай expectation-maximization (EM) algorithm. Нет никакой магии, есть закон Мура, который позволяет наращивать вычислительные мощности для асимптотически-эффективных решений, поэтому негры в 2018 году распознаются существенно лучше, чем в 2010.
Аноним 04/09/18 Втр 12:38:40  1258715
>>1258710
удачи
ты всех изрядно заебал
Аноним 04/09/18 Втр 12:39:26  1258716
>>1258710
Продолжаем whataboutism. Будучи накормленным хуями по фактам луддит несет очередные черрипикнутые священные писания и предлагает побороться с копипастой.
Аноним 04/09/18 Втр 12:42:36  1258719
>>1258716
А что не так-то? Или ты правда веруешь, что в машобчике есть что-то кроме аппроксимации функций?
Аноним 04/09/18 Втр 12:45:02  1258721
>>1258719
У нас была тема разговора, к какому конкретно моему тезису ты это принес? Если ни к какому, не пытайся уводить тему.
Аноним 04/09/18 Втр 12:48:27  1258723
>>1258721
>к какому конкретно моему тезису ты это принес?
К тому, что надо сотни лет изучать, как диплернинх работает, и ссылаться на какие-то ранние работы - это луддизм.
Аноним 04/09/18 Втр 12:48:58  1258724
>>1258710
>expectation-maximization (EM) algorithm.
В каком месте?
Аноним 04/09/18 Втр 12:56:17  1258731
>>1258724
Ну на фото либо негр, либо нет. Задача диплернинха в данном случае связать фичи, представляющие негра с соотв. тегом "негр".
Аноним 04/09/18 Втр 12:57:05  1258732
https://youtu.be/qqN-P2_q6_0
Аноним 04/09/18 Втр 12:58:28  1258734
>>1258723
>К тому, что надо сотни лет изучать, как диплернинх работает
Да и никакого контраргумента в статье по ссылке нет.
>ссылаться на какие-то ранние работы - это луддизм
Цитату. Ты ее не найдешь, потому что я такого не писал.
Аноним 04/09/18 Втр 13:01:05  1258739
>>1258731
Ты кажется не понимаешь что такое EM
Аноним 04/09/18 Втр 13:02:12  1258741
>>1258731
Вот мост. Конструктор когда его проектирует, максимизирует ожидание того, что мост не упадет. Вывод - вся инженерная деятельность это EM, а каждому статистику полагается миллион грантов и 72 девственницы.
Аноним 04/09/18 Втр 13:28:45  1258766
>>1258710
> Весь этот ваш диблернинх - частный случай expectation-maximization (EM) algorithm.
Да, но какая разница? Дип лернинг есть, он работает для большого класса задач (да-да, негров и речь распознает лучше других методов) , магии нет, в чем проблема?

Вон внизу даже статья Хинтона
https://stats.stackexchange.com/questions/45652/what-is-the-difference-between-em-and-gradient-ascent
Аноним 04/09/18 Втр 13:55:54  1258789
>>1258766
>лучше других методов) ,
Любимая мантра. Знаешь, почему лучше? Потому что его гоняют на топовых видюхах. Еще Лекун писал, что ленет может ровно то же, что и полносвязный перцептрон с той разницей, что перцептрон таких размеров любое железо раком поставит. И опять вспомню неприятный вопрос - а что насчет задач не связанных с неграми, временные ряды те же? На неграх он лучше работает только потому, что функция, представляющая негра (наборы фич) в разы сложнее, чем state-space представление временного ряда и для ее более-менее успешной аппроксимации нужен вот более сложный аппроксиматор.
Аноним 04/09/18 Втр 14:19:51  1258808
>>1258789
и? если взять любой алгоритм с бесконечным количеством параметров и регуляризацией, то он сможет обучиться достаточно неплохо, но, как ты правильно заметил, это невозможно, поэтому приходиться использовать аппроксимации, а так как простые объекты уже изучили и решили аналитическими и эвристическими методами, остались только сложные, которые требуют соответствующих аппроксиматоров, которые можно обучить до тепловой смерти вселенной.
Звук - временной ряд, на котором нейронки работают лучше свм и деревьев и остальных альтернатив, если тебе не нравится
>лучше других методов) ,
Для длинных временных рядов решений пока нет, но их нет вообще, а не только среди нейронок, поэтому и сидят люди в ворлдквантах и придумывают сигналы, как в 90ых-2000ых делали для картинок и звука
Аноним 04/09/18 Втр 18:25:51  1259063
>>1259041
гыгыгы бля лол хуета
Аноним 04/09/18 Втр 18:35:11  1259074
Реально ли создать нейронку уровня /b/ одному?
Прогал на питоне, знания матана на данный момент слабоваты.
Аноним 04/09/18 Втр 18:48:20  1259083
>>1259074
ты и есть нейронка
Аноним 04/09/18 Втр 21:13:16  1259141
>>1259074
>Реально ли создать нейронку уровня /b/ одному?
Легко, если ты понимаешь, как оно работает. Начни с теории. Как сможешь на бумаге расписать бекпропагейшн и все необходимые уравнение - напишешь на чем угодно за пару часов.
Аноним 04/09/18 Втр 23:31:32  1259216
А можно вкатится без матана, просто почитав книжек по тензорфлов?
Аноним 04/09/18 Втр 23:36:41  1259218
>>1259216
Биткоин плати и вкатывайся.
Аноним 05/09/18 Срд 02:44:38  1259261
>>1258789
>Знаешь, почему лучше? Потому что его гоняют на топовых видюхах.
Но ведь ничто мешает гонять на топовой видюхе любой другой метод. Что, так твои убер-методы НЕ МАСШТАБИРУЮТСЯ для больших датасетов что ли, лол? Смешной ты))
Нет, всякие лесисто-дровяные изделия масштабируются, ну так они тоже в мейнстриме. При чем это леса лучше решают задачу по обработке контекстной рекламы и анализа профилей в социальных сетях (потому что нейронки лучше работают с непрерывными данными из-за своей природы), но раз организм велит нейронки хейтить, то хули тут думать.
То есть вот какая хуйня произошла, компьютеры стали более быстрыми, датасеты более большими, на них серьезные люди делают серьезные задачи разными методами, но хейтят именно нейронки. Почему? Потому что не в нейронках дело, а в том, что у кого-то бомбит на само явление хайпа. Нейронки хороши, но раз они так показательно хороши (задачи типа style transfer или генерации речи wavenet'ом с имитацией даже дыхания), то их нужно хейтить. Не потому что они плохо работают, а потому что о них много говорят. Фу такими быть.
>Еще Лекун писал, что ленет может ровно то же, что и полносвязный перцептрон
Неправильно, ленет может меньше, чем полносвязный перцептрон. Ведь у него меньше параметров. Это полносвязный перцептрон с соответствующим количеством слоев и нейронов может столько же - если ты сумеешь его обучить. Сумеешь ли?
>перцептрон таких размеров любое железо раком поставит.
Неправильно. LeNet это вход 28x28x1, затем сверточный слой 3х3х20, макспулинг, слой 3x3x50, макспулинг и полносвязный слой c 500 выходами.
То есть, можно трансформировать его в следующую нейронку:
Вход 28=28=784 нейронов, затем полносвязный слой из 202828=15680 нейронов, макспулинг, затем полносвязный слой из 501414=9800 нейронов, макспулинг и затем полносвязный слой из 500 нейронов. Ничего особенного, современное железо это тянет. Если подумать, можно и от пулинга избавиться, но мне лень.
В общем, архитектура такая будет возможна, но как этот перцептрон обучать? Все дело в том, что архитектура сверточных сетей содержит в себе регуляризацию, а именно, инвариантность к перемещению для всех слоев, кроме последнего. У полносвязной сети такого не будет - она не имеет такой информации о мире. Поэтому несмотря на то, что обученную LeNet можно конвертнуть в такой перспектрон и оно будет работать, обучить такой персептрон будет гораздо сложнее и дольше - потому что в его архитектуру не зашита эта самая инвариантность.
>И опять вспомню неприятный вопрос - а что насчет задач не связанных с неграми, временные ряды те же
Пошел опять whataboutism. Так это ты ответь, что насчет. Какой метод лучше нейронок при анализе временных рядов?
Нет такого. Твоя позиция барская - сел, ноги на стол и такой "несите-ка мне хуйню, которая позволит на бирже миллиарды зарабатывать, да побыстрее. Что, нейронки не могут это сделать? Ну так говно ваши нейронки". Подразумевая, что ты по старинке уже миллиарды на этой самой бирже заработал. Нихуя же не так, нейронки это state of art анализа временных рядов, а если они работают хуево (что, вообще говоря, не так - я работаю с одномерными данными, например), то остальные методы еще хуже.
>На неграх он лучше работает только потому, что функция, представляющая негра (наборы фич) в разы сложнее, чем state-space представление временного ряда и для ее более-менее успешной аппроксимации нужен вот более сложный аппроксиматор.
Я тебе сейчас объясню твою фундаментальную ошибку, как батя, а ты меня выслушаешь и проигноришь из-за когнитивных искажений, ну да похуй.
1. Сложность аппроксиматора особо неинтересна. Они уже все безумно сложны настолько, чтобы тупо запоминать датасет и это не предел. Сложный аппроксиматор легко оверфитится. Поэтому главное не универсальность аппроксиматора, а его способность к генерализации. И сверточные нейронки ввиду своей регуляризации очень хорошо генерализуют.
2. Самое главное достижение дипленинга - это переход специалистов от дизайна фич к дизайну архитектур. Раньше было как, сначала программистом пишется много скриптов с вычленением фич из негра или временного ряда, затем это все упаковывается в один многоменрый feature vector и скармливается простому линейному классификатору. Весь ML - в этом классификаторе, остальное - сложные алгоритмы типа SIFT. Это как-то работало. Сейчас фичи вычленяют верхние слои нейронки. Они делают это лучше, чем программисты. И ML теперь расширился уже и на область дизайна фич.
И если нейронки сосут на какой-то задаче, это не потому что аппроксиматор требуется более слабый, а потому что они хуже автоматически вычленяют фичи. Например, очевидно, что если в твоем временном ряде сильные временные зависимости, то без dilated convolutionов не обойдешься. Хуяк-хуяк, ты придумал wavenet.
Аноним 05/09/18 Срд 02:45:39  1259262
>>1259074
Читай cs231n
Аноним 05/09/18 Срд 05:14:33  1259284
>>1259261
> Но ведь ничто мешает гонять на топовой видюхе любой другой метод. Что, так твои убер-методы НЕ МАСШТАБИРУЮТСЯ для больших датасетов что ли, лол? Смешной ты))
Все масштабируется, уже просто потому, что любую функцию от многих аргументов можно представить через суперпозицию частных функций от двух например аргументов. Просто другие решениях тема нехайповая, никто этим не занимается. Сойбои же засмеют на коворкинге.
Аноним 05/09/18 Срд 06:29:48  1259292
>>1259261
> Пошел опять whataboutism. Так это ты ответь, что насчет. Какой метод лучше нейронок при анализе временных рядов?
Они все примерно одинаковы. И диплернинх не даёт заметных преимуществ. Потому что все эти методы - универсальные аппроксиматоры. А сама система может очень отличаться от того, что мы имеем на ограниченном отрезке временного ряда. Поэтому даже минимальная экстраполяция не работает.
Аноним 05/09/18 Срд 06:30:13  1259293
>>1259141
>>1259262
Спасибо
Аноним 05/09/18 Срд 06:30:25  1259294
>>1259284
>Сойбои же засмеют на коворкинге.
Человек-мемасик рассказывает нам о том, кто кого засмеет. И это единственное, что он родил в ответ на 8 кб текста.
При этом человек-мемасик все знает - десятки тысяч ученых ошибались, развивая неправильную тему (не иначе, как всех запугали SJW), но он-то ого-го какой. И что же он предлагает?
>Все масштабируется, уже просто потому, что любую функцию от многих аргументов можно представить через суперпозицию частных функций от двух например аргументов.
Fin.
Аноним 05/09/18 Срд 06:54:18  1259298
>>1259294
> десятки тысяч ученых ошибались, развивая неправильную тему
Десятки тысяч индусов и прочих смузихлебов. Учёных в этой теме три калеки. И почему неправильную, правильную же. Для цифрового ГУЛАГа.
Аноним 05/09/18 Срд 09:04:50  1259325
Дело даже не только в мощностях, а тупо в громадном обьеме данных. Есть данные фейсбук/гугл/очень частные задачи - диплерненх "работает", нет - хуй сосешь.
Аноним 05/09/18 Срд 09:21:11  1259333
>>1259325
Объём данных это вообще не показатель того, что с задачей справится только диплернинх. Word2vec не диплернинх, а работать может с очень большими объёмами данных. И для работы с ним даже не требуется башлять нвидии. Вот пример подхода здорового человека. А могли бы просто нахуярить слоёв.
Аноним 05/09/18 Срд 09:44:44  1259366
>>1259292
>Они все примерно одинаковы.
Я тебя спросил, какой метод лучше. Ты не ответил, потому что не знаешь.
>Потому что все эти методы - универсальные аппроксиматоры.
Как я писал выше, но ты это проигнорировал из-за когнитивных искажений: "Я тебе сейчас объясню твою фундаментальную ошибку, как батя, а ты меня выслушаешь и проигноришь из-за когнитивных искажений, ну да похуй.
1. Сложность аппроксиматора особо неинтересна. Они уже все безумно сложны настолько, чтобы тупо запоминать датасет и это не предел. Сложный аппроксиматор легко оверфитится. Поэтому главное не универсальность аппроксиматора, а его способность к генерализации. И сверточные нейронки ввиду своей регуляризации очень хорошо генерализуют."
Почему ты уже несколько лет носишься с этими универсальными аппроксиматорами, не понятно.

Второй момент, мейнстримные сверточные нейросети универсальными аппроксиматорами не являются. Хотя бы из-за наличия downscaling слоев. Берем фотографию негра, на белом фоне, затем сдвигаем ее на 1 пиксель. Первую фотографию негра обзываем классом 0, вторую - классом 1. И все. Подобные два класса сети с max pooling'ом отличить не в состоянии. Даже в случае экстреального оверфитинга - просто потому что первый pooling слой сделает сигналы равными. Сверточные сети не являются универсальными аппроксиматорами, это аппроксиматоры, которые заточены под обработку сигналов, инвариантных вдоль 1, 2 или 3 измерений. Таких сигналов очень много.
>>1259298
>Сойбои же засмеют на коворкинге.
>Десятки тысяч индусов и прочих смузихлебов.
Человек-мемасик продолжает свои охуительные мемасики. А ты ведь самый главный сойбой тут.
>Учёных в этой теме три калеки.
В какой теме ученых больше?
Аноним 05/09/18 Срд 09:45:08  1259367
>>1259360
>Кокие данные? Релевантность поиска у гугли говно, переводчик такой же
Чем же ты пользуешься?
Аноним 05/09/18 Срд 09:50:22  1259372
>>1259368
То есть ты пользуешься гуглопоиском и гуглотранслейтом, потому что это лучшее, что есть, но так как ты брюзжащий старпер с клинической депрессией, тебе просто поныть охота.
Аноним 05/09/18 Срд 09:53:40  1259374
>>1259325
>Дело даже не только в мощностях, а тупо в громадном обьеме данных.
То есть другим методам данных не нужно.
Аноним 05/09/18 Срд 09:58:18  1259379
>>1259378
Ты-то блядь откуда знаешь?
Аноним 05/09/18 Срд 09:59:31  1259380
1uwAos6ZGW0SYqi[...].png (629Кб, 2000x579)
>>1257714
>Решены. Это вот типично старперский выебон. Стыдно быть таким.
Ну да, а на пикрелейтед страус. Охуенно всё решено.
Аноним 05/09/18 Срд 10:05:40  1259382
>>1259381
Каким образом?
Аноним 05/09/18 Срд 10:14:33  1259387
>>1259380
И опять whataboutism пошел.
Аноним 05/09/18 Срд 10:20:36  1259392
>>1259389
Ой блядь, два вопроса и опять общие ответы без конкретики. Ты наблюдаешь только за глюками в своей голове, а к МЛ-имеешь следующее отношение: твою мамку ебал пёс лекуна и так появился ты.
Аноним 05/09/18 Срд 10:23:24  1259394
>>1259375
в переводчике яндекса тоже нейронки
Аноним 05/09/18 Срд 10:43:05  1259404
>>1259399
Мне неприятно, что мои годные мысли засираются говном типа тебя, которое даже поспорить нормально не может - 2-3 демагогических приема, ходящих по кругу, ноль математики, ноль ссылок на статьи и т. д. Ты же одноклеточный спорщик, блевать тянет от такого.
Аноним 05/09/18 Срд 11:22:00  1259426
>>1259407
Классической лстм тебе будет достаточно?
Аноним 05/09/18 Срд 11:43:33  1259439
137631234585.jpg (24Кб, 600x452)
>>1259366
>Подобные два класса сети с max pooling'ом отличить не в состоянии
А что, других методов понижения размерности не существует?
Аноним 05/09/18 Срд 13:47:24  1259500
image.png (16Кб, 300x300)
А ну быстро сказали как робот управляемый ИИ будет производить прибавочный рподукт?

Мимо Атлант.
Аноним 05/09/18 Срд 13:50:41  1259504
>>1259426
https://towardsdatascience.com/the-fall-of-rnn-lstm-2d1594c74ce0
Аноним 05/09/18 Срд 13:57:51  1259512
>>1259500
>и как робот управляемый ИИ будет производить прибавочный рподукт?
>>1259181
Аноним 05/09/18 Срд 14:21:00  1259522
>>1259500
> А ну быстро сказали как робот управляемый ИИ будет производить прибавочный рподукт?

Быдло последовательно (сначала пролетариев - работников руками, потом инженеров и прочих интеллигентишек - работников мозгами, когда роботы сами себя смогут обслуживать и задачи ставить) уморят, капиталистическая илита сможет наконец зажить счастливой жизнью при коммунизме.
Аноним 05/09/18 Срд 14:40:30  1259536
Сап, Анон. Подскажи, какие разделы математики и в каком порядке лучше задрочить? Сам пока думаю так: анализ, комбинаторика, теория графов, статистика, вероятности. С меня нихуя.
Аноним 05/09/18 Срд 14:41:04  1259537
>>1259500
Точно так же как и любой другой станок. Прибавочный продукт = цена - себестоимость.
Аноним 05/09/18 Срд 14:42:28  1259538
>>1259536
Анализ, теорвер, линейная алгебра местами.
Аноним 05/09/18 Срд 14:47:45  1259539
>>1259536
Для макакинга: линал, анал, теор вер, больше тебе ничего не нужно. Для чего то большего фунан, топология, мат. программирование и один аллах знает, что там вылезет.
Аноним 05/09/18 Срд 15:58:14  1259558
>>1259539
> топология,
Гамалогии забыл, кловн.
Аноним 05/09/18 Срд 16:09:17  1259561
>>1259407
>Ты показывай рабочий пример, который прекрасен и с инженерной и с эстетической стороны.

Такие модели как правило являются основой технологического преимущества компании, в которой ты работаешь. И если ты не молодой шутливый "диплёнинх энтузиаст", то показать обычно нечего.

мимокрок
Аноним 05/09/18 Срд 20:29:21  1259730
>>1259504
Работая с одномерными данными, пришел к тем же выводам.
LSTM как раз хороший пример того, что появилось с ускорением железа: идея изобретена в 90-е, с тех пор особо не менялась, широкое использование полносвязных слоев и сложно считаемых нелинейностей типа tanh и sigmoid. Идеи feedforward сети, которая ограниченно, смотрит в прошлое, типа wavenet, TCN и того, что предлагают они, намного симпатичнее, проще обучаются и вообще ня.
Аноним 05/09/18 Срд 21:40:26  1259802
>>1259730
> идея изобретена в 90-е

Бля в 2000-е вообще что нибудь придумывали? Кто-нибудь в курсе о каком-нибудь алгоритме, который ждет своего часа?
Аноним 05/09/18 Срд 22:12:25  1259836
>>1259802
В нулевые придумали, как обучать глубокие сети с помощью послойного предобучения без учителя. Это дало пинок исследованиям в нужную сторону, но теперь это уже не нужно.
> Кто-нибудь в курсе о каком-нибудь алгоритме, который ждет своего часа?
А вот тут тебе надо рыть как раз кернел методы - в нейронках все настолько горячее, что тысячи людей ковыряют все, что только можно. Вполне возможно, что через 10 лет у нейронок наступит очередная зима, а ты тут такой с древней статьей на мощном железе выстрелишь.
Аноним 06/09/18 Чтв 02:51:57  1259935
>>1259836
> А вот тут тебе надо рыть как раз кернел методы
А я разве не об этом не первый год пишу? Нет ни одного метода, настраивающего саму структуру кернела для конкретной задачи, функция ядра это всегда гиперпараметр. Хотя всем ясно, что это основа кернел методов как явления и тупо перекладывать эту задачу на пользователя.
Аноним 06/09/18 Чтв 04:02:24  1259944
>>1259935
>Нет ни одного метода, настраивающего саму структуру кернела для конкретной задачи
Есть. deep learning

Я не о том, как раз о ручном дизайне слоев - эти вещи могут работать интереснее и быстрее, чем аппроксимация кернелов нейронкой, как происходит сейчас.
Аноним 06/09/18 Чтв 14:14:14  1260100
Палю годноту, шпрехензи дойч необходимо.

Торопись, пока твоё место не заняли хачи-мигранты с ближнего востока.
Аноним 06/09/18 Чтв 14:23:05  1260108
>>1260100

https://www.neurocheck.de/unternehmen/karriere/stellenangebote/
Аноним 06/09/18 Чтв 14:24:03  1260109
>>1260100
>Палю годноту, шпрехензи дойч необходимо.

Нахера, они там все английский прекрасно знают и переводят, особенно в ит. Вот что действительно необходимо, так это китайский, половина всех статей по машобу написана на китайском, учитывая что там сейчас лучшее массовое мат.образование в мире, хз какая годнота там может быть заныка прямо сейчас, на вроде информационной геометрии у япошек в 90-х, о которой никто больше не знал до 00-ых.
Аноним 06/09/18 Чтв 14:32:07  1260113
>>1260109
> половина всех статей по машобу написана на китайском,
Ну и что? Маловероятно, что на китайском есть что-то важное, чего нет на английском. Любой понимает, что у статьи на английском будет больше читателей, чем на китайском, т.к английский образованные люди и на китаях знают, а вот в китайский вне Китая могут очень немногие.
Аноним 06/09/18 Чтв 14:45:01  1260118
>>1260113
>Маловероятно, что на китайском есть что-то важное, чего нет на английском.


Дэмэдж контролл американской тряпки от первой экономики мира.
Аноним 06/09/18 Чтв 16:11:36  1260146
>>1260109
>половина всех статей по машобу написана на китайском
На китайском? Не китайскими авторами на английском?
>лучшее массовое мат.образование в мире
Пруфы в студию.
Аноним 06/09/18 Чтв 16:19:56  1260150
Вы должны мне помочь! Сам не могу нихуя найти. Есть С или Го продвинутые свободные, и в то же время не сложные для разбора, для МЛ или диплёрнинх? Очень надо именно на этих языках. Ни как мне не поможет питон или джава и всякая такая хуйня.
Аноним 06/09/18 Чтв 16:23:43  1260151
>>1260150
И я забыл упомянуть что это не должен быть враппер, мне нужно конкретно засунуть это в го. Именно в го.
Аноним 06/09/18 Чтв 16:26:53  1260154
>>1260151
>диплёрненх
>го
Может ещё и блохчейн? А сам ты на гироскутере, в правой руке вейп, в левой смузи?
Аноним 06/09/18 Чтв 16:27:26  1260155
>>1260151
щас бы на go писать cudann код
Аноним 06/09/18 Чтв 16:37:47  1260168
>>1260151
2 секунды поиска, первая ссылка в гугле
https://www.tensorflow.org/install/install_go
Аноним 06/09/18 Чтв 16:46:33  1260173
>>1260155
На CPU нада.
>>1260154
Техническая необходимость, сойбой.
>>1260168
Не подходит ни для мой реки, ни для проекта.
Аноним 06/09/18 Чтв 16:51:55  1260180
В какой вуз идти учиться, чтобы в будущем заниматься машинным обучением и анализом данных?
Кроме очевидного физтеха, фкн вшэ и шада?
Аноним 06/09/18 Чтв 17:41:44  1260196
>>1260180
В топ вуз.
>шада
Значение знаешь?
Аноним 06/09/18 Чтв 18:05:12  1260207
>>1260150
На С есть MXNet - диплернинх, все дела. На ПЩ нихуя нету кроме 1.5 враппера.
>>1260146
> Пруфы в студию.
Я тут давал ссылку на переводную на англ китайскую книшку про нечёткие множества, там написано, что автор преподает этот предмет в школе в Гонконге лет 10, а книшка такая годная, что её на английский перевели и в шпрингере издали. Так что предыдущий оратор прав - в китаях математику дрочат серьёзно, и правильно делают.
Аноним 06/09/18 Чтв 19:19:09  1260225
>>1260196
>В топ вуз
Это какой, если не мфти и вшэ?
мехмат мгу?
Аноним 06/09/18 Чтв 19:57:07  1260233
Меня забанили в гугле. Поэтому такой вопрос, дайте, пожалуйста, ссылку, где лучше всего показано как растет скорость выполнения программ с нейросетями, после того как взяли видеокарты Nvidia и стали на них ускорять программу?
Аноним 06/09/18 Чтв 21:20:44  1260259
>>1252855 (OP)

Кто нибудь здесь понимает математику GRU? Вопрос есть.
Аноним 07/09/18 Птн 03:19:56  1260387
>>1252855 (OP)
прошел все курсы по матану от mit но что значит этот кал import slesarplow as sp
Аноним 07/09/18 Птн 03:42:48  1260391
>>1260259
Всё также как и лстм, но называется по-другому. А математика для нейросетей - это что-то уровня Перельмана и теоретической квантовой физики, здесь таких не найдёшь.
Аноним 07/09/18 Птн 04:09:38  1260394
>>1260207
А если я возьму pytorch и импортирую его в cython файл и скомпилирую в .so?
Аноним 07/09/18 Птн 04:11:51  1260395
>>1260391
а чо она там есть? можно ссылочки на статьи?
Аноним 07/09/18 Птн 05:51:41  1260400
>>1260391
> математика для нейросетей - это что-то уровня Перельмана и теоретической квантовой физики, здесь таких не найдёшь.
Математика для нейросетей это уровень оп пика с йобами.
Аноним 07/09/18 Птн 06:11:11  1260403
>>1260400
Ты просто не знаешь о чём говоришь, это не математика, это сами сети. Математика для них просто ебааа.
Аноним 07/09/18 Птн 07:44:07  1260415
>>1260403
>>1260391
Ну короче вопрос то не такой уж сложный, если человек знаком с GRU. Я не понимаю смысла домножения (1-zt) * ht. Типо это zt это же ворота, которые решают чё надо сохранить, а что обнулить. Я не понимаю какой смысл в том, что бы результат предыдущего шага нормально домножался на этот вектор, а текущий результат домнажался на то, что мы не пропустили. ( Ну тип 1-zt даст обратные значения относительно единицы). Короче кто сечет, поясните мне за эту логику.
Аноним 07/09/18 Птн 08:05:24  1260424
>>1260415
Это интерполяция между старым значением и предложенным новым.
Аноним 07/09/18 Птн 09:09:34  1260434
>>1260415
Не ебу, что за нотация и обозначения на твоей формуле, но оно подозрительно похоже на стохастическую аппроксимацию Роббинса-Монро. Т.е текущее значение = предыдущее домноженное на что-нибудь в зависимости от алгоритма.
Аноним 07/09/18 Птн 11:08:55  1260478
>>1260415
Ты просто решил что твои вентили бинарные, но они интерполированные. Потому что бинарные нейроны - это двадцатый век.
Аноним 07/09/18 Птн 12:59:58  1260530
>>1260490
Ну макака то может и не поймёт, что имелась ввиду функция активации, но настоящий сойбой всегда знает какие нейроны бинарные, а какие интерполированные.
Аноним 07/09/18 Птн 14:25:10  1260553
14884441475680.jpg (34Кб, 290x394)
>>1260543
Ты думаешь спиздил мои картинки и думаешь можешь троллить дальше? Чмо, тебя выдаёт вовсе не использование форсов или картинок. Я понял что это ты по тупым попыткам казаться умнее и упрекать сведущих в машобе людей. Знай, ты опять обосрался. Пока ты сидишь и выдумываешь как сегодня будешь верстать соцсети за 500 рублей на Авито, я уже закончил новую версию нейронки для топовой ай-ти компании, где мне платят в день больше чем твоей путане мамаше заплатили за всю её карьеру. Сейчас я еду на своей porsche spyder, а рядом со мной сидит супермодель и проигрывает с тебя, потому что даже она видит как неумело ты притворяешься человеком, который знает что такое мл. Ты, говно, только и можешь что потирать свой лоб тужась чтобы понять что такое сигмоид и плакать, когда сдаёшься и идёшь дальше скроллить зекач ради того, чтобы попытаться оскорбить уважаемых датасаентистов. Это все, что ты можешь.
Аноним 07/09/18 Птн 14:28:59  1260554
!!!!laugh.jpg (52Кб, 533x388)
>>1260553
> топовая ай-ти компания
> Porsche
> супермодель
> сидит на двачах
Аноним 07/09/18 Птн 15:25:08  1260565
>>1260424
Да там так и написано было. Но прикладного смысла я не понял.
>>1260478
Верно, там сигмойда, но сути это не меняет, после вычита единицы значения интерполируются, и то, что раньше пропускалось теперь не пропускается и наоборот. В чем смысл этого применения к текущему результату я допереть не могу.
Аноним 07/09/18 Птн 15:44:32  1260572
>>1260571
Нет, не вижу.
Аноним 07/09/18 Птн 16:37:20  1260584
>>1260553
школьник детектед
Аноним 07/09/18 Птн 16:54:36  1260588
>>1260575
Вы тут какие-то не серьезные. В языкотредах вон по хардкору поясняют.
Аноним 07/09/18 Птн 17:09:16  1260592
>>1260565
вот на англицком философское объяснение
Let’s bring up the example about the book review. This time, the most relevant information is positioned in the beginning of the text. The model can learn to set the vector z_t close to 1 and keep a majority of the previous information. Since z_t will be close to 1 at this time step, 1-z_t will be close to 0 which will ignore big portion of the current content (in this case the last part of the review which explains the book plot) which is irrelevant for our prediction.

то бишь, если вектор h_{t-1} сильно большой и важный, то мы его не забываем, а забываем ту ерунду, что сейчас, и наоборот
Аноним 07/09/18 Птн 17:13:56  1260595
>>1260590
в этом треде сидят одни дегенераты, которые весь день доказывают, что нейронки не нужны, вопросы советую задавать на реддите или stackoverflow
Аноним 07/09/18 Птн 17:16:24  1260598
>>1260595
Неправда, если моча забанит пару человек, будет нормально
Аноним 07/09/18 Птн 17:16:30  1260599
>>1260588
Потому что непонятно что вообще тебе нужно и спрашиваешь ты про то, что само нормально работает и импортируется изкаропки в любом фреймворке.
Аноним 07/09/18 Птн 17:39:14  1260604
>>1260588
Если ты не можешь осмыслить правильный ответ, который я тебе дал сразу же: >>1260424 , то проблема на твоей стороне. У меня создалось впечатление, что ты просто смотришь на формулу, как баран на новые ворота, и даже не можешь сказать, что именно тебе непонятно. Это называется отсутствие бекграунда, и в этой беде тебе не поможет никто, ни здесь, ни на реддите, ни на стековерфлоу.
Аноним 07/09/18 Птн 17:55:34  1260612
>>1260592
>то бишь, если вектор h_{t-1} сильно большой и важный, то мы его не забываем, а забываем ту ерунду, что сейчас, и наоборот
Да, ты даже ту статью нашел которую я читал. Я понял что тут было написано, но у меня встал вопрос, а что если оба шага важные? Или не важен ни один. Значения в векторе будут в районе 0.5?
>>1260599
Я пытаюсь понять внутреннюю механику архитектуры, что бы понимать как нужно её подкручивать, что бы добиваться желаемое результата.
>>1260604
Вот этот >>1260592 анон понял, что я имел ввиду. К слову бекграунд у меня и правда не так велик я занимаюсь этим всего месяц, но за это время успел разобрать механику обычных нейросеток, бп, рнн, бптт, проблему размытия градиента с формулами и осмыслением математики, щас вот над лстм и гру бьюсь. Пока до конца осознание не пришло.
Аноним 07/09/18 Птн 18:04:00  1260617
>>1260612
>векторе будут в районе 0.5?
Разумеется имелся ввиду вектор ворот.
Аноним 07/09/18 Птн 18:08:55  1260620
Анон, хочу сделоть OCR на джаве, т.к. на pure джаве OCR до сих пор почему-то нет. В связи с этим нужно понять чо читать и куда копать. Изначальное применение будет для тестирования UI, т.е. нужно распознать достаточно квадратные компуктерные буквы.
Аноним 07/09/18 Птн 18:18:37  1260627
>>1260620
Делай нейронку на тф, в жабе ее загружай и гоняй. Как я тут делал: https://github.com/sorrge/wakabaYes
Но это медленно, т.к. на чистой жабе не поюзать ГПУ.
Аноним 07/09/18 Птн 18:48:41  1260643
>>1260617
в z_t два набора весов - один для икса, другой для h_{t-1}, они решают, сколько старой информации оставить
Аноним 07/09/18 Птн 19:23:59  1260651
>>1260612
> а что если оба шага важные? Или не важен ни один
Такое практически невозможно.
Аноним 07/09/18 Птн 20:03:46  1260676
>>1260627
>на чистой жабе не поюзать ГПУ
Можно сгенерировать и серануть в гпу.
Спасибо за ссылку, посмотрю.
Аноним 07/09/18 Птн 20:10:00  1260678
>>1260612
>щас вот над лстм и гру бьюсь
Начиная с этого момента идет большой скачок сложности. То, что ты до этого расписал, это совсем просто. А вот до конца разботать, как и почему ЛСТМ решает проблему забывания (и что это вообще за проблема), это гораздо сложнее. Читай Шмидхубера, реализуй все сам, смотри как работает, сверяйся с теорией. Не советую ГРУ брать для начала: он был разработан на базе ЛСТМ, как его упрощение, и там не все понятно. Скорее эмпирически был сделан/найден. А ЛСТМ основан на теории.
Аноним 07/09/18 Птн 20:54:10  1260699
>>1260598
Двачую, давно пора пидорнуть этих дятлов.
Аноним 07/09/18 Птн 21:48:57  1260716
>>1260711
>Вротентраххером
Бля, бротишь, можно ещё этих шутеек с нерусскими фамилиями? Так уморительно, чуть животик не надорвал.
Аноним 07/09/18 Птн 21:51:09  1260717
>>1260678
>как и почему ЛСТМ решает проблему забывания
Он обучает каждый свой гейт отдельной нейросеткой в каких случаях что пропускать, а что нет. Так же параллельно он учится игнорить определенные сигналы, а перед выходом еще и отбирать самые достоверные. В итоге формируется особая память, лежащая в определенных коэфициентах весов и биасов этих гейтов. Затем, когда обученный гейт видит какой-то паттерн он уже знает как его надо отфильтровать что бы в нем осталась только нужная инфа по его мнению. Как-то так я это понял.
Аноним 07/09/18 Птн 21:54:20  1260718
>>1260651
Да ну, например в обработке текстов из всего предложения важно может быть только пара слов. И Получается что GRU одно из этих слов посчитает важным и запишет в память. Нет так что ли?
Аноним 07/09/18 Птн 23:49:23  1260751
>>1260743
Обучением на предыдущих примерах, где ты вручную указывал что важно.
Аноним 07/09/18 Птн 23:51:00  1260753
>>1260718
>из этих слов
Имелось ввиду что из этих неважный слов которые могут идти друг за другом.
Аноним 08/09/18 Суб 00:47:24  1260773
>>1260766
Ну кто-то это в любом случае делал. Ты мог взять готовое.
>>1260768
Ну бля, я об этом и говорю что между важными словами могут стоять дохуя неважных. А с этим интерполированием получается, что идет неважное потом важное потом снова не важное итд. Неееее, я явно чего-то не догоняю.
Аноним 08/09/18 Суб 10:16:38  1260833
>>1260718
Да, так. Но это слово будет важнее другого. Иное невозможно. Это точно так потому что обучение не так работает, блять, когда ты обучаешь, оно ищет путь аппроксимации решения, так что предугадать это невозможно из-за бесконечного количества вариантов, но это в любом случае не алгоритм, она никогда не имеет конфликтов, решения обходят друг друга или дают малоразличимые данные.
Аноним 08/09/18 Суб 13:27:51  1260910
Посаны, интересует нейросети использовать и пытаться усовершенствовать архитектуру в онлайн дрочильнях по типу доты и лол. Я так понял, что там уже архитектуры жрущие конские ресурсы , которые одному человеку не под силу достать. Остается только наблюдать со стороны?
Аноним 08/09/18 Суб 14:16:13  1260935
>>1260833
Вот, все таки благодаря твоим разъяснениям и долгому залипанию в формулы я осознал нахуя нужна интерполяция. Все-таки я не учел, что все преобразования на текущем шаге задействуют данные с предыдущего. А интерполяция нужна, что бы обработать те данные, которые апдейт гейт не пропустил, ресет гейтом. Впрочем, это пока только интуитивное понимание.
Аноним 08/09/18 Суб 15:18:55  1260954
Это все защитная постирония на тему того что птушники, наслушавшиеся в интернете про нейросети в принципе не могут осилить или что?
Аноним 08/09/18 Суб 16:25:44  1260969
>>1260954
Нет, это местная срущая пидарашка. Никто этого хуесоса не репортит, либо моча тут совсем прохудилась.
Аноним 08/09/18 Суб 16:36:40  1260972
>>1260910
бамп вопросу
Аноним 08/09/18 Суб 17:21:51  1260989
>>1260972
Если ты понял, то какие вопросы? Либо оптимизируй, либо придумывай своё, либо хуй соси.
Аноним 08/09/18 Суб 19:42:00  1261040
>>1261039
В детстве в очко кочергой ебали.
Аноним 08/09/18 Суб 20:50:31  1261050
>>1260910
Можно утроиться работать в дипмайнд или оупенэйай.
Аноним 09/09/18 Вск 07:47:15  1261189
image.png (20Кб, 1090x131)
15350676837000s.jpg (5Кб, 220x219)
чего блять нада этой шайтан машине ?
хуле она краснеет то еп твою мать
Аноним 09/09/18 Вск 09:36:19  1261204
>>1261189
>anaconda
>tensorflow_windows
Mamma mia.
Аноним 09/09/18 Вск 09:51:56  1261209
>>1261204
Могли бы и для шиндошс сделать нормальную версию, например, включить в анякунду эту ебучую, чтобы само все ставилось. Не все, знаешь ли, любители анальных забав с консолечкой в глинуксе.
Аноним 09/09/18 Вск 10:22:05  1261215
>>1261209
и чтоб еще модельки можно было на гуи рисовать, а то, как макаке, приходится код руками писать
Аноним 09/09/18 Вск 10:24:25  1261218
>>1261209
Десятая винда резирвует видеопамять, например. Если ты бомж без 1080ти, то иногда можно соснуть.
Аноним 09/09/18 Вск 10:24:48  1261219
>>1261218
>резирвует
Резервирует.
Аноним 09/09/18 Вск 10:34:30  1261224
Задизайнил неполный полуфункциональный язык для машоба. Если напишу компилятор и ВМку, то примут как проект чтоб показать на каком-нить собесе на фронтенд-макаку?
Аноним 09/09/18 Вск 12:05:11  1261254
>>1261215
> и чтоб еще модельки можно было на гуи рисовать, а то, как макаке, приходится код руками писать
Как что-то плохое. Hypershade в триде редакторе Maya - лучшее, что я видел для создания текстур и материалов. И с нуля вручную любой код можно заебашить, и подправить уже существующий (например, вместо линейной зависимости степени отражения от угла обзора можно прописать закон Френеля, чтобы было как в реале итд)., и гуи есть для компоновки всего этого в результат любой сложности. Только школуйня гуи не любит, тип нимодна фуфу, на самом деле гуй в нужном месте охуенно удобен.
Аноним 09/09/18 Вск 12:24:54  1261274
>>1261189
СПАСАЙТЕ ЭТО ХУЙНЯ ПРОДОЛЖАЕТ КРАСНЕТЬ
Я так заебался , скоро начну вырубать в кссе эту хуйню
ПАМАГИТЕ !ы
Аноним 09/09/18 Вск 12:32:53  1261277
>>1261254
> Только школуйня гуи не любит, тип нимодна фуфу, на самом деле гуй в нужном месте охуенно удобен.

Тоже заметил что за кли топят только чмошники, которые с трудом преодолели абсолютно не нужную кривую обучения и теперь надеются за ней отсидеться, хотя по факту треть мозга занята обработкой визуальной инфы и игнорировать эти вычислительные мощности верх тупизны с точки зрения любого вменяемого программиста. Уроки питона и саблайма которые соизволили задейстовать крупицу этих мощностей, конечно же их ничему не учат.
Аноним 09/09/18 Вск 12:41:11  1261281
1111.jpg (75Кб, 817x643)
Здравствуйте, помогите, пожалуйста, советом. Я защищаю осенью диплом. Кафедральные преподаватели советские математики внезапно полюбили словосочетания "нейронные сети" и "параллельное программирование", сами они программировать не могут, но зато они прочитали учебники 80-90ых про нейронные сети с математическими формулами и им это понравилось. Также им понравилась тема про параллелизм, что можно взять математическую задачу и ЭВМ решит её быстрее за счет нескольких ядер процессора. Поэтому мне задали тему диплома, чётко назначив мне тему про НЕЙРОННЫЕ СЕТИ и ПАРАЛЛЕЛЬНОЕ ПРОГРАММИРОВАНИЕ.

Задача следующая: есть советский кафедральный станок, в зависимости от температуры "х" у него возрастает сила тока "у". Если станок обрабатывает материал "1", то у него возрастает сила тока по закону у1(х). Если обрабатывает материал "2", то у него возрастает сила тока по закону у2(х). Если обрабатывает комбо из "1" и "2" материала, то сила тока возрастает по закону z(x).

Необходимо найти зависимость z(x) от y1(x) и от y2(x). Получится график с тремя осями как на картинке.

Я сразу бросился на stepic.org и прошёл курс по основам нейронных сетей. Там чуть-чуть упомянули задачу регрессии, которая и нужна мне, и 80% времени обсуждали задачу классификации, которая мне не нужна. Я закончил курс и побежал жаловаться на двощи. Мне посоветовали выкинуть наксуй нейросети, не ебать мозги и взять scikit-learn. Я взял scikit-learn и всё было потрясающе, оно ищет такие зависимости просто шикарнейшим образом. Задача была выполнена. Я довольный показал результат в ВУЗике и меня жестоко обоссали и опустили, сказали, что тема про НЕЙРОННЫЕ СЕТИ и ПАРАЛЛЕЛЬНОЕ ПРОГРАММИРОВАНИЕ, так где же, говна кусок, у тебя нейронные сети и параллельное программирование, м? Я побежал жаловаться на двощи. Там мне сказали взять tensorflow и keras и найти ими искомую зависимость. Я нашёл. Показал в ВУЗе и меня обоссали и опустили, что где параллельное программирование и где "сверточная функция".

Так вот, двощ, я снова пришёл просить у вас помощи. Как тут упомянуть параллельное программирование? Может привести таблицу ускорения обучения за счет Nvidia GPU? Как вытащить "свёрточную функцию", если я всё отдал на откуп tensorflow и keras? Я просто загрузил туда данные и оно само посчиталось. Не знаю я никаких "свёрточных функций". И самый главный вопрос - как на защите диплома перед комиссией выкрутиться, почему нужно в данной ситуации брать для решения нейронную сеть? Ведь легче было бы взять scikit-learn и не ебать Муму. Не скажешь же им, что я проебался с темой диплома, и что менять тему уже поздно, ибо все доки подписаны, и что реально проще не ебать Муму, а взять scikit-learn и выкинуть все эти нейросети.
Аноним 09/09/18 Вск 12:45:04  1261285
1111.jpg (83Кб, 922x643)
>>1261281
фикс я картинку неправильную вставил, вот правильная
Аноним 09/09/18 Вск 13:00:14  1261290
>>1261277
> топят только чмошники, которые с трудом преодолели абсолютно не нужную кривую обучения и теперь надеются за ней отсидеться
Ну это универсально для всех красноглазиков.
Аноним 09/09/18 Вск 14:24:13  1261313
>>1261281
Ну хули делать, пиши с нуля свою нейронку на CUDA. Или на OpenCL, для разнообразия.
Только куда тут воткнуть свертку в регрессии, я хз
Аноним 09/09/18 Вск 14:28:16  1261315
>>1261281
Вали оттуда.
Аноним 09/09/18 Вск 14:31:17  1261318
>>1261281
>>1261315
Дво чую. Какие-то гнилые пидоры. Хотя ты сам обосрался.
Аноним 09/09/18 Вск 14:47:19  1261321
743.png (134Кб, 256x384)
>>1261281
>сверточная функция
Пиздец, блядь, просто пиздец.
Аноним 09/09/18 Вск 15:05:42  1261333
>>1261281
А ты не очень умный, да? Если задачу можно "решить" простым подходом, это не означает что другие не нужны.
Вот тебе нейроночка из scikit-learn,
http://scikit-learn.org/stable/modules/generated/sklearn.neural_network.MLPRegressor.html , возьми к ней еще пару моделей, нарисуй табличку сравнения которая покажет как нейроночка уделывает классические модели по скорости и точности. Если от самого не требуется писать код для распараллеливания, то показывай рекламу видеокарт, если нужно демонстрировать, то какой-то керас параллелит на CPU просто добавлением n_jobs = количество_ядер.
Сверточная функция есть только внезапно в сверточных сетях и они тут никак не нужны.
Аноним 09/09/18 Вск 15:20:29  1261338
1.png (105Кб, 787x587)
>>1261333
>Сверточная функция есть только внезапно в сверточных сетях и они тут никак не нужны.
В посте предыдущего оратора речь не о сверточных сетях, а о функциях свертки. Русский язык слишком велик и могуч, каждый ебалай может назвать нечто как ему вздумается и без формального описания хуй проссышь, что он на самом деле имел в виду. Это не английский, где среднеквадратическая ошибка MSE она хоть в африке MSE. В сраветской литературе это могут назвать как автору заблагорассудится - невязка, неувязка итд. Функцией свертки могут назвать хоть уравнение Хебба, если автору так захочется. Тут нужно смотреть контекст употребления, что именно хотят от предыдущего оратора преподы, может быть и правда полтора нейрона с настройкой весов методами Хебба, он же упоминал какие-то книжки 80-х годов.
Аноним 09/09/18 Вск 16:00:59  1261348
>>1261313
>>1261333
>>1261338

Спасибо больше за ответы, мудрые анонимы

>возьми к ней еще пару моделей, нарисуй табличку сравнения которая покажет как нейроночка уделывает классические модели по скорости и точности.

Так она же не уделает. Или имеешь виду, что надо сделать вид, что уделает, чтобы прикрыть мне мою голую задницу на защите?

>Тут нужно смотреть контекст употребления
Контекста не знаю, так как я нуб, наверное, в этот раз не будут спрашивать про эту "свёрточную функцию", наверное, Б-г с ней.
Аноним 09/09/18 Вск 16:21:25  1261362
>>1261338
От твоих слов я почувствовал горечь и пустоту внутри, но стал немного мудрее.
>>1261348
Может и уделывать, почему нет? Вообще, зависит от гиперпараметров моделей, подбери для нейроночки получше.
Аноним 09/09/18 Вск 16:30:12  1261368
>>1261362
Тогда ладно, спасибо
Аноним 09/09/18 Вск 17:55:44  1261409
>>1261290
зато у меня тензорфлоу работает из коробки, а вы трахаетесь с гуи и плачете
Аноним 09/09/18 Вск 17:58:37  1261410
>>1261409
более того, вы еще и предупреждение прочитать не в состоянии, которое написано на красном фоне, дебилы необучаемые
Аноним 09/09/18 Вск 23:41:09  1261645
>>1261277
> хотя по факту треть мозга занята обработкой визуальной инфы и игнорировать эти вычислительные мощности верх тупизны с точки зрения любого вменяемого программиста.
Ты не путай обработку визуальной инфы - вывод графиков, например, с гуйней, то есть интерфейсом. CLI - ты общаешься с компьютером на языке, GUI - общаешься с ним же языком жестов.
Единственный порог вхождение - это то, что чмони не умеют печатать вслепую со скоростью хотя бы 250 символов в минуту. Примерно на этом уровне CLI дрючит GUI по полной.

Дело, естественно, касается программирования. Понятное дело, что CLI фотошоп - это нонсенс (хотя в 90% бытовых случаев типа конвертирования форматов imagemagick подойдет лучше, чем запускать редактор).
Аноним 10/09/18 Пнд 08:42:07  1261762
Ананасы, подскажите в какую вообще сторону копать: есть куча текста, поделенная на куски. Далее на вход подается еще текст, и если он примерно соответсвует имеющемуся - то ставится определенная пометка. Я так понимаю, это что-то из NLP, но вот как подступиться - вообще не понимаю...
Аноним 10/09/18 Пнд 09:37:31  1261772
>>1261762
Word2vec, text2vec, всякие document similarity метрики.
Аноним 10/09/18 Пнд 09:56:38  1261779
>>1261645
все равно в фотошопе у профессионала основные функции будут на горячих клавишах, в сложных системах гуи становится очень сложным для использования, в том же виндоусе для того, чтобы сменить папку для /temp/ нужно менюшек пять пройти
Аноним 10/09/18 Пнд 12:03:57  1261843
>>1260620
>The classifier is pre-trained; I do not provide the code and the data to train it
блэт
Аноним 10/09/18 Пнд 22:11:59  1262172
Учусь в магистратуре по специальности Обработка информации / машинное обучение. Настало время выбирать тему диссертации и хотел бы услышать советов, какие-нибудь интересные и перспективные темы. Буду благодарен.
Аноним 10/09/18 Пнд 23:18:25  1262191
>>1262172
Безгарадиентнаые алгоритмы оптимизации архитектуры нейронных сетей.
Аноним 10/09/18 Пнд 23:23:57  1262193
>>1262172
Пихвоиды третьего порядка в сетях типа suna
Аноним 11/09/18 Втр 01:54:34  1262237
>>1262172
Горячие на данный момент области: ГАНы, РЛ, метаобучение, исследования теории обобщения (тебе не по зубам будет), zero-shot learning, transfer learning. Если тебе не нужна новизна, бери любую свежую статью от именитых авторов на эту тему и реализуй, попробуй воспроизвести результаты. Если хочешь новизны, можешь взять уже существующую реализацию какой-нибудь работы 2-4 летней давности и что-нибудь мелкое там поменять, пытаясь улучшить результат. Второй вариант в 5-10 раз более трудоемкий.
Аноним 12/09/18 Срд 12:19:25  1263057
Не знаю в какой ещё тред обратиться. Есть цитата Павлова
>Знания, не подкрепленные телесным опытом или чувственным впечатлением, не усваиваются. В коре головного мозга формируются центры нейтрализации этой информации
Но это всего лишь беспруфные слова, пусть и павлова, им уже сто лет в обед. Может быть можно как-то найти соответствующие вайтпейперы?

P.S. Из этой цитаты делается вывод в одной книжке, что образование таким образом полностью отупляет человека.
Аноним 12/09/18 Срд 12:38:29  1263066
>>1263057
> что образование таким образом полностью отупляет человека.
Внимательно читай довн, нужно подкреплять опытом.
Аноним 12/09/18 Срд 12:40:39  1263068
>>1263066
Слишком размыто. Этими словами можно манипулировать как угодно.
Аноним 12/09/18 Срд 12:47:01  1263069
>>1263068
лол, нк хочется делать домашку?
Аноним 12/09/18 Срд 13:02:32  1263088
>>1263057
очевидно же. Знания - это трейн сет, они не усвоены. С помощью градиентного спуска (или даже ЕМ, прости меня Аллах) нейронная сеть получает чувственный опыт.
Аноним 12/09/18 Срд 13:36:48  1263101
>>1263088
Мне хотелось вайтпейпер где чёто там проверили на мышах, и хуяк, результат - образуются какие-то области в мозге, из чего можно сделать какой-то вывод, уже свой, а не высер из цитаты, который может быть ошибочным.
Аноним 12/09/18 Срд 15:11:53  1263147
>>1263057
> Но это всего лишь беспруфные слова, пусть и павлова, им уже сто лет в обед.
Вообще то память так и работает. Ненужные данные удаляются гиппокампом во время сна, остаются только значимые для особи связи. Консолидация памяти это называется. Косвенно такая функция подтверждается синдромом Корсакова, т.е повреждением гиппокампа. Вот это все и гугли.
Аноним 12/09/18 Срд 15:56:57  1263177
>>1263147
Понимаешь, вроде бы то о чём ты говоришь можно назвать просто отмиранием того что не воспроизводится, use or lose, без дальнейшего формирования какой-то противодействующей системы: а зачем, это же дорого и тяжело.

Но вот именно в цитате указывается на то что формируется и усиляется структура, которая именно прикладывает усилия к неусвоению данных. В первом случае - нет усилий. Оно само отпадает. Во втором - усилия прикладываются.

>Полное удаление гиппокампа делает невозможным формирование новых воспоминаний, что убедительно продемонстрировал случай с пациентом H.M. Нарушения в работе гиппокампа могут привести к синдрому Корсакова, который так же сводится к невозможности фиксировать текущие события, при сохранении старой памяти.

>Конфабуляции (лат. confabulari — болтать, рассказывать) — ложные воспоминания – когда больной не может вспомнить события из своего прошлого и заменяет их вымышленными являются одним из самых характерных симптомов корсаковского психоза.
>Конфабуляции у некоторых пациентов носят постоянный характер. Они всё время придумывают новых персонажей, детально рассказывают происходившие с ними истории и т.д., заменяя таким образом забытые воспоминания на вымышленные.
>При этом важно учитывать тот факт, что больные не лгут – они действительно считают данные воспоминания реальными.

>Человек, выпивший критическую дозу, все равно помнит недавние события, и во многих случаях может поддерживать связанную беседу. Однако наутро все воспоминания, начиная с определенного момента, оказываются стертыми, то есть в данном случае нарушается консолидация ((от лат. con — вместе, solido — укрепляю) — укрепление, объединение, интеграция, сплочение чего-либо)/(фиксирование устойчивого состояния) памяти.

>Косвенно такая функция, как консолидация памяти, подтверждается синдромом Корсакова

Вроде понял, хоть это и о другом, книгу хорошую нашел зато, буду читать http://www.aboutbrain.ru/category/book2/ там посмотрим.
Аноним 12/09/18 Срд 18:31:22  1263250
>>1263088
>С помощью градиентного спуска

Совсем уже пизданулись со своими "нейросетями", в мозге вообще нет градиентного спуска, даже приблизительно, там вообще нет ничего похожего на сегодняшний машоб, кроме того что там тоже типа сети из множества элементов, на этом сходства заканчиваются. Даже правила Хебба и их производные не выполняются для 90% cсинапсов.
Аноним 12/09/18 Срд 18:31:56  1263255
>>1263177
> Но вот именно в цитате указывается на то что формируется и усиляется структура, которая именно прикладывает усилия к неусвоению данных. В первом случае - нет усилий. Оно само отпадает. Во втором - усилия прикладываются.
Возможно, Павлов имел в виду структуры, осуществляющие торможение ненужных рефлекторных связей. А торможение в ЦНС это такой же активный процесс, как возбуждение, а не просто пассивное явление при отсутствии возбуждения. Естественно, Павлов очень немного знал о конкретных анатомо-физиологических субстратах многих явлений, с которыми он сталкивался в экспериментах, но сами-то явления были, а одно из положений его концепции в том, что у любой функции ЦНС есть отвечающая за неё структура и у любой структуры ЦНС есть функция.
Аноним 12/09/18 Срд 19:35:49  1263289
maxresdefault ([...].jpg (46Кб, 1280x720)
>>1263250
Джвачую, рбота мозг это сверхтемнейшая йоба, у нейронодебилов синдром утенка.
Аноним 13/09/18 Чтв 03:29:10  1263407
>>1263088
Нихуя не так. Знание - это данные, которые обрабатываются по встроенным или выученным моделям обработки сигналов. А ты несёшь какую-то хуйню придуманную Леканом.
Аноним 13/09/18 Чтв 09:09:54  1263443
>>1263250 >>1263407 >>1263289
это называется "шутка"
Аноним 13/09/18 Чтв 14:43:39  1263589
>>1263443
Ты думал мы здесь с тобой шутить будем?
Аноним 13/09/18 Чтв 23:48:21  1263852
>>1263250

И забыли про душу...
Аноним 13/09/18 Чтв 23:59:20  1263856
>>1263852
У меня все нейроночки с душой, не надо тут.
Аноним 14/09/18 Птн 10:52:15  1264003
>>1263057

Короче это связанно с тем, как мозг создает модели объектов и активное перемещение сенсоров, которое и формирует чувственные впечатления и телесный опыт является необходимым компонентом в их формировании, с помощью определенных манипуляций с сигналом на передвижение сенсоров, формируются аллоцентрические координаты объекта, то есть привязанные не к наблюдателю, а к объекту и в результате создается инвариантная модель объекта абстракция, которая потом уже может быть использована самостоятельно без привязки к начальному телесному опыту, то есть получается абстрактное знание.
Аноним 14/09/18 Птн 14:43:17  1264154
>>1264003
Не верю
Аноним 14/09/18 Птн 15:52:24  1264176
>>1264003
мой вариант с градиентным спуском поближе к действительности будет
Аноним 14/09/18 Птн 15:54:25  1264177
>>1264176
Нет, не будет
Аноним 14/09/18 Птн 15:55:43  1264179
>>1264177
нет, будет, с помощью оптимизации градиентным спуском Аллах человека из ребра случайного создал
Аноним 14/09/18 Птн 16:15:37  1264186
385264972150624[...].jpg (1276Кб, 1080x1080)
>>1264154
>>1264176

Что именно вам не понятно, ребята?
Аноним 14/09/18 Птн 16:33:38  1264190
>>1264186
>Что именно вам не понятно, ребята?
Как найти пихвовектор?
Аноним 14/09/18 Птн 17:28:58  1264204
Привет,датасаенты, Есть что-то опенсорсное для стилизации текста под определенного автора? например как орфограмка делает "красивый" текст
Аноним 14/09/18 Птн 17:41:47  1264213
>>1264204
https://github.com/vinitra/neural-text-style-transfer

на просторах гитхаба можешь поискать https://classic.sberbank.ai
например, https://github.com/mktoid/classic-ai
Аноним 14/09/18 Птн 18:13:14  1264221
>>1264213
Спасибо нашел https://github.com/Koziev почитаю его может чего то пойму)
Аноним 14/09/18 Птн 18:17:07  1264225
>>1264204
Нетъ
Аноним 14/09/18 Птн 20:09:18  1264295
>>1264225
https://github.com/Koziev/pushkin
Почему нет?
Аноним 14/09/18 Птн 21:50:14  1264362
>>1264295
Это не стилизация.
Аноним 14/09/18 Птн 22:07:10  1264375
>>1264295
Козеев маладца, но это хуйня какая то, берешь ритмику стиха и подгоняешь рендомные слова, все, какой тут нахуй еще ИИ?
Аноним 14/09/18 Птн 23:02:56  1264394
>>1264375
Но у него в примере нет намека на стихотворность?
Хорошо, как на счет https://github.com/karpathy/recurrentjs
Аноним 14/09/18 Птн 23:41:17  1264403
>>1264394
>нет намека на стихотворность
Молодец, потому, что я его другие йобы знаю, а данный пример хуета какая
>https://github.com/karpathy/recurrentjs
А что там, какой то текст, что то движется и мигает.
Аноним 15/09/18 Суб 07:34:35  1264469
>>1264403
Мдееемс... не понимаю почему картинки стилизуются, а с текстами ничего =(
Аноним 15/09/18 Суб 08:32:10  1264479
Собираюсь написать фреймворк, который будет делать вычисления в 6 раз быстрее ты и будет максимально понятнее. Какие шансы?
Аноним 15/09/18 Суб 08:46:15  1264481
>>1264479
>тф

Фикс
Аноним 15/09/18 Суб 10:47:31  1264516
>>1264479
Бабушкин, уймись
Аноним 15/09/18 Суб 12:54:45  1264569
>>1264444
Аноним 15/09/18 Суб 16:56:10  1264675

>список векторов слов из текстового файла в формате word2vec
Ну так вот как мне слова перевести в векторы в этом формате?(
Нашел 14 гиговый файл https://nlpub.ru/Russian_Distributional_Thesaurus
пхех
Аноним 15/09/18 Суб 17:41:57  1264702
Лучше подскажите мне небольшой набор англейских вектор-слов, который в несжатом состоянии не больше 50 мб.
Аноним 15/09/18 Суб 18:43:56  1264716
>>1264675
Атлична, продолжаем копать это дерьмо, пока меня не убьет модер за то что я слишком тупой.

Там же на сайте есть файл на 100 метров тестовый. Но русский.

Так вот., заимели мы векторы словестных форм в великом формате w2v, но создатель говорит нам "давай текстовый файл, текстовый файл с векторами слов." Ну и хули нам делоть? Гуглим, пытаемся силами gensima перевести одно в другое и получаем хуй? файл есть, но открыть его не может текстовый рядахтур... гуглим дальше?
Аноним 15/09/18 Суб 20:09:33  1264740
>>1264716
А ведь получается вся логика последовательностей слов заключена в этих векторных правилах слов, т.е. в ней и заключен тот самый авторский стиль? Так чи не?
Аноним 15/09/18 Суб 21:15:32  1264762
>>1264702
word2vec сортируешь по частоте и обрезаешь на 50мб.
Аноним 15/09/18 Суб 23:02:58  1264787
>>1264479
Большие. Применяй конкатенативные языки программирования и твои шакалы легко будут отличать негров.
Аноним 16/09/18 Вск 04:43:41  1264846
>>1264716
> Так вот., заимели мы векторы словестных форм в великом формате w2v, но создатель говорит нам "давай текстовый файл, текстовый файл с векторами слов." Ну и хули нам делоть?
Это ж бинарный формат, готовая модель, не? Текстовый корпус по ссылке отдельно.
>>1264740
Да.
Аноним 16/09/18 Вск 20:38:53  1265169
14102111626288.png (68Кб, 280x273)
По поводу бигдаты здесь спрашивать?
Аноним 16/09/18 Вск 20:47:31  1265175
>>1265169
Дыа
Аноним 16/09/18 Вск 21:04:37  1265185
a2k5aC0vG0s.jpg (33Кб, 512x604)
>>1265175
Что обучающего почитать/посмотреть про бигдату?
Аноним 16/09/18 Вск 21:15:08  1265188
BigData.jpg (88Кб, 510x614)
>>1265185
Аноним 16/09/18 Вск 21:22:05  1265192
>>1265188
Если в книге меньше триллиона страниц, это книга не про бигдату.
Аноним 16/09/18 Вск 22:39:19  1265234
stoneagemusicby[...].png (439Кб, 1024x576)
>>1265185

man grep, man sort, man join
Аноним 16/09/18 Вск 23:22:07  1265253
>>1265234
rm -R ./*
Аноним 16/09/18 Вск 23:23:09  1265254
>>1265192
Большая книга о маленьких данных
Аноним 16/09/18 Вск 23:37:30  1265262
Untitled.png (781Кб, 696x682)
Есть ли такие же крутые курсы по ML, как Intro to Machine Learning от Udacity? Смотрел на Coursera курс от Andrew Ng, но он дико скучный.

КАК ЖЕ ГОРИТ С ЭТОЙ ШКОЛЫ БЛЯТЬ ФИЗИКА ХИМИЯ ЫЫЫ БЛЯТЬ НА ЖЕСТКИЙ ПАРТАХ СИДЕТЬ СЛУШАТЬ БАБКУ, КОТОРАЯ ВЕДЕТ УРОК, ЧИТАЯ УЧЕБНИК.
ЗАВТРА ПИЗДОХАТЬ НА ОСТАНОВКУ, А НЕ СЛУШАТЬ ЛЕКЦИИ ПРЕКРАСНЫХ ИНДУСОВ И ГОСПОДИНОВ ИЗ СОЛНЕЧНОЙ КОМИФОРНИИ.
Аноним 16/09/18 Вск 23:47:56  1265271
>>1265262
>ГОРИТ С ЭТОЙ ШКОЛЫ
школочмоня не человек, уходи к своей тетесраке маревановне
Аноним 17/09/18 Пнд 01:39:41  1265324
>>1265262
Спешите видеть! Школотрон вкатывается в самую матановую ИТ специальность!
Аноним 17/09/18 Пнд 02:26:16  1265326
>>1265324
Тут матан 9 класса американской школы, не так уж и сложно.
Аноним 17/09/18 Пнд 07:08:18  1265359
>>1265262
Как же влом идти в эту шарагу пиздец. Хорошо что я уже неделю проёбываю и меня к концу семестра выгонят нахуй.
Аноним 17/09/18 Пнд 18:22:54  1265624
image.png (608Кб, 696x682)
>>1265271
>>1265324
>>1265326

>уходи к своей тетесраке маревановне
Двач - детский сайт. Уебывай сам.
>Спешите видеть! Школотрон вкатывается в самую матановую ИТ специальность!
Математика никогда не была преградой для белого человека.
>Тут матан 9 класса американской школы, не так уж и сложно.
Свидетель Швятой?



На рутрекере есть раздача МЛ нанаодигри https://rutracker.org/forum/viewtopic.php?t=5415054
Но там не фул. Находил ли кто-то фул?
Аноним 17/09/18 Пнд 19:49:17  1265681
>>1252855 (OP)
эй, есть тут нлп господины? нужен грант на мою йобу, какие сейчас конкурсы открыты, что бы я там выиграл денюх?
Аноним 17/09/18 Пнд 19:54:50  1265684
>>1265681
Что ты там изобрел опять?
Аноним 17/09/18 Пнд 19:58:27  1265685
>>1265684
НЛП же. Вероятно велосипед.
Аноним 17/09/18 Пнд 19:59:49  1265688
>>1265684
Морфологический анализатор делаю, дающий пасасать пиморпхи и майстем.
Аноним 17/09/18 Пнд 22:50:58  1265825
подскажите плез идею для нейроночки, что нибудь интересное/полезное из области детекции обьектов
Аноним 17/09/18 Пнд 22:55:16  1265828
YRSFgSHSFJgjH8GA.png (338Кб, 503x604)
>>1265825
Напиши детектор хохлов.
Аноним 17/09/18 Пнд 23:54:35  1265853
>>1265828
неплохо, но нейронки для эттого не нужны
Аноним 18/09/18 Втр 06:24:15  1265912
>>1265825
> подскажите плез идею для нейроночки, что нибудь интересное/полезное из области детекции обьектов
OCR для математической нотации, что-то типа pdf to latex.
Аноним 19/09/18 Срд 02:16:19  1266404
Как вообще лучше осваивать машобчик
Вот посмотрел я в cs231n лекцию про GAN'ы, хочу вкатиться, что делать? Я вот читаю сейчас статью гудфеллоу, как мне найти следующую статью в которой дадут обзор методов допиливания? Или нужно на на архиве статьи читать, а еще где то где нормально разжуют?
Аноним 19/09/18 Срд 03:09:43  1266412
>>1266404
Лучше всего закончить профильный универ и пойти на ПхД.
Аноним 19/09/18 Срд 03:16:03  1266413
>>1266412
ну я что-то вроде этого и делаю
но пока нет научника хочется узнать пути освоения
Аноним 19/09/18 Срд 04:42:08  1266419
>>1266413
ГАНы это самый передний край науки, топчик. Монументальных трудов по ним нет, в ближайшее время не ожидается. Читай статьи, особенно те, которые много цитируют.
Можешь посмотреть популярные блоги, только учти что сейчас миллион блогов по типу "нейроночки это просто", которые пишут дилетанты. Эта напасть пошла из-за того, что у блогов появилось маркетинговое значение (Карпати поднялся на своем блоге, за ним потянулось стадо).
Общее правило - ноунеймов не читай, будь то блоги, книги или статьи. Читай авторитетное, популярное, цитируемое.
Аноним 19/09/18 Срд 05:37:45  1266423
>>1266419
Скинь пару примеров.
другой анон
Аноним 19/09/18 Срд 06:11:17  1266424
>>1266423
https://scholar.google.com/scholar?hl=en&as_sdt=0%2C44&q=generative+adversarial+networks
100+ цитат => можно читать
Аноним 19/09/18 Срд 09:02:46  1266448
Есть где-то нормальное объяснение NALU? А то я из кода и дебильных статей, где просто добавили к коду комментарии не понял даже где веса вставляются.
Аноним 19/09/18 Срд 11:05:19  1266495
>>1266419
>ГАНы это самый передний край науки, топчик. Монументальных трудов по ним нет, в ближайшее время не ожидается.
Опять ты на связь выходишь, деградантушка с магическим мышлением? Ганы это просто одно из применений сверточных сетей.
Аноним 19/09/18 Срд 11:31:16  1266513
Нужно в срочном порядке собрать пак из пиздиллиарда фотографий хризантем пригодных для тренировки нейронки.
Где вы там обычно датасеты набираете?
Аноним 19/09/18 Срд 11:37:29  1266517
>>1266513
> Нужно в срочном порядке собрать пак из пиздиллиарда фотографий хризантем пригодных для тренировки нейронки.
>Где вы там обычно датасеты набираете?

Написать скриптик для гугления и сделать интервалы, что бы гугл не забанил?
Аноним 19/09/18 Срд 11:59:55  1266524
>>1266517
Таких уже дохуя
Аноним 19/09/18 Срд 15:29:29  1266592
>>1266524

Анончик, дай ссылку на самый лучший.
Аноним 19/09/18 Срд 16:14:53  1266627
>>1266592
https://github.com/hardikvasa/google-images-download
я этот использовал. Не помню, почему я его выбрал, но думаю, потому что он был первым в выдаче гугла.
Аноним 19/09/18 Срд 19:00:38  1266747
Screenshot9.png (875Кб, 550x623)
>>1266627
Спасибо.
Аноним 19/09/18 Срд 20:49:28  1266805
15372939197332[[...].mp4 (1350Кб, 640x800, 00:00:07)
Просто напоминаю снобам псевдоматематикам на что идут их труды.

Аноним 19/09/18 Срд 21:06:13  1266814
01a.gif (4522Кб, 480x378)
Скока вы зарабатываете тута?
Аноним 19/09/18 Срд 21:11:53  1266817
>>1266814
300к/нсек, а ты как хотел?
Аноним 19/09/18 Срд 21:14:02  1266818
>>1266805
Из силикона делают сиськи, а не только "полезные" вещи, господи спаси. Просто апоминаю снобам псевдохимикам, на что идут их труды.
Аноним 19/09/18 Срд 21:20:30  1266820
>>1266805
Дурак, нет? Это приложение, это реклама, это деньги, это новый способ получить прибыли из масс.
Аноним 19/09/18 Срд 22:30:07  1266854
>>1266495
Идея ган ортогональна сверточным сетям. Это идея о том, что лосс тоже может быть обучаемой нейронкой.
Поэтому кто из вас двоих деградант - это вопрос.
Аноним 20/09/18 Чтв 01:05:49  1266895
>>1265912
Обосрётся же, нейронки с формализованным текстом хуёво работают.
Аноним 20/09/18 Чтв 01:59:35  1266902
Робот-червь под[...].mp4 (13982Кб, 1280x720, 00:01:37)
Аноним 20/09/18 Чтв 02:54:45  1266911
>>1266805
ахуительно
еще порнуху можно генерить
зачем мне анализ столкновений каких-нибудь там элементарных частиц или fMRI (который мне никогда не будут делать) а вот инсту я листаю частенько и глаз радуется!
Аноним 20/09/18 Чтв 02:55:57  1266912
>>1265912
вот тут уж точно легче и лучше на правилах делать
а не нейронки сувать
Аноним 20/09/18 Чтв 05:04:49  1266921
15368398129820.jpg (10Кб, 276x183)
>>1266854
> Идея ган ортогональна сверточным сетям. Это идея о том, что лосс тоже может быть обучаемой нейронкой.
Это кризис жанра. Повторяется история с перцептронами в 80х годах. Тоже пытались подкрасить покойника, добавить нескучных спецэффектов в плане сделать гиперпараметры настраиваемыми параметрами. Все это закончилось ничем. Потому что не было понимания главного - сколько со смузи на коворкингах не пляши, ты не обойдешь того факта, что нейроночки это не более чем асимптотически-эффективный метод. Потому оно и работает лучше, если у тебя больше видеокарт. Ты вот веруешь, что идёт какое-то развитие, а на самом деле весь этот соевый хайп и его результаты (хуй да нихуя) ещё в 60х были обоссаны. Так что все эти ганы итд все тот же путь в никуда, и все это развивается только потому что поднимает продажи нвидии, посмотри, какой у них рост цен на акции.
> Поэтому кто из вас двоих деградант - это вопрос.
Не из нас, а из вас. И скорее всего оба.
Аноним 20/09/18 Чтв 07:55:21  1266950
>>1266921
Ну и дебик. Дипмайнд развивает же. Они за несколько лет создали больше чем за всю историю машоба.
Аноним 20/09/18 Чтв 08:20:54  1266952
>>1266950
> Они за несколько лет создали больше чем за всю историю машоба.
Манямир. Все, что они создали - полторы разновидности сверточных сетей. Твои кукареканья о том, что это больше чем вся история машоба доказывают только то, что с этой самой историей ты не знаком. Негров стали распознавать на 2% лучше, или какие ты достижения придумал?
Аноним 20/09/18 Чтв 09:29:29  1266969
>>1266921
Какое направление по-твоему является сейчас наиболее перспективным?
Аноним 20/09/18 Чтв 09:34:18  1266973
>>1266952
NALU, DNC, нейросетевой 3D рендер, tacotron 2, тот же tensorflow. И это ведь не всё.
Аноним 20/09/18 Чтв 09:56:35  1266981
>>1266973
> NALU, DNC, нейросетевой 3D рендер, tacotron 2, тот же tensorflow. И это ведь не всё.
И вот про это (1.5 косметических улучшения, 3.5 применения, 1 имплементация на пистоне сверточных нейроночек) ты говоришь что это больше, чем вся история машоба?
>>1266969
> Какое направление по-твоему является сейчас наиболее перспективным?
Единственное перспективное направление - это ставить задачу машоба формально, и уже из следствий такой постановки выводить алгоритмы. Кроме такого варианта остаётся одно шаманство.
Аноним 20/09/18 Чтв 10:18:37  1266988
>>1266981
Мда, а что тогда по твоему реальное достижение? Мне кажется ты ещё один сойбой, который нихуя не понимает в сфере но всё равно верещит.
Аноним 20/09/18 Чтв 10:19:58  1266989
>>1266921
по твоему описанию очевидно, что ты даже не знаешь, что такое ГАНы. Также очевидно, что ты и математику не знаешь. При чем твои "асимптотически-эффективный метод". На основе ганов можно и всякие байесовские автокодировщики делать.
https://arxiv.org/pdf/1706.04987.pdf
Аноним 20/09/18 Чтв 10:32:06  1266992
>>1266989
> На основе ганов можно и всякие байесовские автокодировщики делать.
И они хотя бы % на 5 эффективнее, чем без ганов?
>>1266988
> Мда, а что тогда по твоему реальное достижение?
Уж точно не косметические улучшения существующих алгоритмов.
Аноним 20/09/18 Чтв 10:38:02  1266994
Шёл 2018-ый год, дурачки в сотый раз кормили нечёткого.
В конце он скажет, что сам свои охуительные идеи реализовать не может
Аноним 20/09/18 Чтв 11:02:57  1267007
zyx00weaoif590b[...].jpeg (55Кб, 543x214)
Нейроночки работают как говно. Даже Гугл не может ничего с этим сделать.
Аноним 20/09/18 Чтв 11:25:37  1267012
>>1267007
Что если анализировать картинку два раза, предварительно размыв вторую немного?
мимодиван
Аноним 20/09/18 Чтв 11:43:49  1267014
Кто-нибудь пользовался
https://aws.amazon.com/
для вычислений??
сколько стоит,
ничего что там требуют номер карточки, где деньги лежат и домашний адрес??
Что будет, если там рандомные числа написать и зарегаться???
Аноним 20/09/18 Чтв 11:54:58  1267019
>>1267014
>сколько стоит
Смотря какие мощи. У них на сайте смотри.
>ничего что там требуют номер карточки, где деньги лежат и домашний адрес
Пендосы наебут на даллары Самому не смешно?
>Что будет, если там рандомные числа написать и зарегаться
Ничего не будет. Ты не сможешь оплатить своё говно.
Алсо, рандомные не получится, потому что идёт списание $1, чтобы подтвердить твою платёжеспособность (потом вернут). Либо настоящие, либо никаких.
Аноним 20/09/18 Чтв 12:05:09  1267023
>>1267019
просто я не любитель выставлять свои персональные данные в интернет
Аноним 20/09/18 Чтв 12:12:07  1267030
>>1267023
Расслабься, это ж не русская контора
Аноним 20/09/18 Чтв 12:32:53  1267040
>>1266902
Как это осуществить в домашних условиях?
Аноним 20/09/18 Чтв 12:59:31  1267056
>>1267019
вводишь реальную карту, подтверждаешь, потом аннулируешь её
Аноним 20/09/18 Чтв 12:59:54  1267057
>>1267030
Совсем уже хаус нигером стал.

>>1267014

Контора американская, так что если ты из России в любой момент могут начаться проблемы, как бывало уже не раз с американскими конторами, которые то домены забирали, то блокировали платежи, то прекращали поддержку. Лучше регайся сразу на али, цены ниже, санкциями мозги не ебут, перспективы больше т.к. они растут сейчас, как бешеные, по сто процентов в год, и им прядется и дальше снижать цены, что бы завалить амазон.
Аноним 20/09/18 Чтв 13:34:28  1267077
А куда опа-хуя девали? Тред кто будет перекатывать, Пушкин?
Аноним 20/09/18 Чтв 13:49:31  1267082
>>1267077
Но ведь ещё 20 постов до лимита.
Аноним 20/09/18 Чтв 13:51:57  1267084
1457367875984.png (116Кб, 1024x749)
>>1266820
> Это приложение, это реклама, это деньги, это новый способ получить прибыли из масс.
>Гордиться очередным финансовым пузырем в маркетологии

Вот это прогресс. Вот это ноука.
Аноним 20/09/18 Чтв 14:19:48  1267104
>>1267084
Финансовый пузырь в маркетологи была твоя мамка, когда она начала стареть и стала непривлекательна для клиентов.
Аноним 20/09/18 Чтв 15:20:18  1267136
>>1266805
Еще бы приложение, которое стирает татухи
Аноним 20/09/18 Чтв 15:25:23  1267143
>>1266820
>это новый способ получить прибыли из масс
>сначала отдай деньги массам
>потом придумывай йобы и анальные фокусы, чтобы впечатлить быдло и получить эти деньги обратно
Скорей бы роботы уже.
Аноним 20/09/18 Чтв 15:35:11  1267153
>>1252855 (OP)
Где в рахе учат на машобчиков?
Аноним 20/09/18 Чтв 15:45:50  1267164
>>1267153
ШАД, ВШЭ, МФТИ, факультеты компухтер саенса/вычислительной математики крупных университетов.
Аноним 20/09/18 Чтв 17:36:42  1267229
>>1267143
Так работает экономика, сынок. Прибыли идут на освоение ресурсов и рост, а всё остальное в поток.
Аноним 20/09/18 Чтв 17:56:43  1267241
>>1267143

Массы продают своё невосполнимое жизненное время (труд), чтобы купить ненужный им на самом деле айфон с нейросеточкой, прикручивающей венок. Бизнес покупает у них это время, используя его для увеличения своей прибыли без затрат такого же кол-ва личного времени. Акционеры получают проценты и живут так же экономя жизненное время. Как-то так
Аноним 20/09/18 Чтв 18:31:17  1267257
>>1267164
> ШАД
Это просто доп.курсы для тех кто уже шарит.
> ВШЭ, МФТИ, факультеты компухтер саенса/вычислительной математики
Совковое говно с тоннами совковой математики и прочего говна. В итоге выйдет не машобчик, а какой нибудь никому не нужный МАТЕМАТИК, учитель в школу
Аноним 20/09/18 Чтв 19:04:08  1267272
>>1267257
>доп. курсы
Полноценные курсы. Разве что математику нужно знать лучше, чем средний абитуриент в вузик.
>совковой математики
Алгоритмы используют нихуя не передний край математики. Хотя решать Демидовича хуй знает зачем нужно машоберу, ето да
Аноним 20/09/18 Чтв 19:23:41  1267280
>>1267272
>решать Демидовича
А Жопеншульцера?
Аноним 20/09/18 Чтв 20:24:10  1267313
>>1267280
Ты опять выходишь на связь со своими охуительно смешными фамилиями?
Аноним 20/09/18 Чтв 20:31:17  1267316
>>1267313
Это же смешно, не?
Аноним 20/09/18 Чтв 20:34:36  1267319
>>1267316
Не.
Аноним 20/09/18 Чтв 20:41:46  1267323
153742547911537[...].jpg (120Кб, 700x466)
>>1267319
А мне смешно. Особенно когда какой нибудь маняматик начинает нести лютую дичь: Гаусса — Маркова, Поллачека — Спитцера, Рао — Блэквелла — Колмогорова,
Линдемана — Вейерштрасса. Всегда с этого проигрывал.
Аноним 20/09/18 Чтв 20:51:01  1267328
14631370225380.png (407Кб, 699x653)
>>1267104
Вау, кажется чувствительный триггер нащупал.
Шо математик мамин, ничем от вебмакак не отличаешь по сути?
Аноним 20/09/18 Чтв 20:52:16  1267329
degenerates.jpg (56Кб, 851x666)
>>1267323
Аноним 20/09/18 Чтв 20:57:36  1267332
Говнауса — Макакова, Говначека — Хуитцера, Гавнао — Хуйвелла — Говногорова,
Жопендемана — Жопоштрасса. Всегда с этого проигрывал.
Аноним 20/09/18 Чтв 21:06:45  1267336
Naked Gun - Epi[...].mp4 (623Кб, 1280x720, 00:00:02)
>>1267257
>Совковое говно с тоннами совковой математики и прочего говна. В итоге выйдет не машобчик, а какой нибудь никому не нужный МАТЕМАТИК

Это самое тупое утверждение, какое только можно было сделать в треде про машоб.
Аноним 20/09/18 Чтв 21:43:15  1267354
>>1267257
А без этой математики выйдет даунич, у которого весь машобчик сводится к fit()-predict().
Аноним 20/09/18 Чтв 21:53:13  1267362
>>1267332
вся суть математики
Аноним 20/09/18 Чтв 22:24:32  1267379
>>1267336
Это давно уже не тред про машоб, а цирк с одним клоуном.
Аноним 20/09/18 Чтв 22:45:05  1267391
Катимся

>>1267390 (OP)
>>1267390 (OP)
>>1267390 (OP)
Аноним 20/09/18 Чтв 23:21:34  1267412
>>1258321
Шарить за матан на таком уровне и одновременно не мочь выучить С++ за пару месяцев на уровне достаточном для написания численных методов.
Сдается мне и идеи твои тоже говно.
Аноним 21/09/18 Птн 02:35:09  1267447
>>1267323
> Линдемана — Вейерштрасса. Всегда с этого проигрывал.
Ты даун потому что. Тебе пальчик покажи, и то смеяться будешь.
Аноним 21/09/18 Птн 12:31:10  1267630
Capture.PNG (23Кб, 301x194)
Как с помощью keras реализовать то, что на картинке?

from keras.models import Sequential
from keras.layers import Dense
model = Sequential()
model.add(Dense(8, input_dim = 3, kernel_initializer = "random_uniform"))

Так? Как указать количество нейронов в выходном слое?
Аноним 13/10/18 Суб 03:44:00  1278423
>>1257918
Окончание в пять фрикций.
Аноним 13/10/18 Суб 04:29:37  1278433
>>1262172
Пехари в неустойчивых дырах


Топ тредов
Избранное