[Ответить в тред] Ответить в тред

02/12/16 - Конкурс визуальных новелл доски /ruvn/
15/11/16 - **НОВЫЙ ФУНКЦИОНАЛ** - Стикеры
09/10/16 - Открыта доска /int/ - International, давайте расскажем о ней!



Новые доски: /2d/ - Аниме/Беседка • /wwe/ - WorldWide Wrestling Universe • /ch/ - Чатики и конфочки • /int/ - International • /ruvn/ - Российские визуальные новеллы • /math/ - Математика • Создай свою

[Назад][Обновить тред][Вниз][Каталог] [ Автообновление ] 507 | 44 | 127
Назад Вниз Каталог Обновить

НЕЙРОНОЧКИ & МАШОБ #8 Аноним !rDGuVmz79Q # OP  13/10/16 Чтв 23:35:45  856234  
(182Кб, 800x600)
(749Кб, 1212x388)
(324Кб, 1600x1059)
книги
Pattern Recognition and Machine Learning, Bishop.
Information theory, inference & learning algorithms, MacKay http://www.inference.phy.cam.ac.uk/itila/
Machine Learning: A Probabilistic Perspective, Murphy
Introduction to Statistical Learning ( http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf )
Elements of Statistical Learning ( http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Foundations of Machine Learning, أشهد أن لا إله إلا الله وأشهد أن محمد رسول الله. http://www.cs.nyu.edu/~mohri/mlbook/
А. Пегат, "Нечёткое моделирование и управление"

другое
http://libgen.io / http://bookzz.org/ - здесь можно одолжить ^ книги и не только
https://vk.com/deeplearning и http://deeplearning.net/reading-list/
http://arxiv.org/find/all/1/all:+nejronochki/0/1/0/all/0/1
http://videolectures.net/mlss09uk_cambridge/
http://kaggle.com - весёлые контесты. денежные призы
https://www.hackerrank.com/domains/ai/machine-learning/difficulty/all/page/1 - олимпиадки
https://www.reddit.com/r/MachineLearning/wiki/index
http://katbailey.github.io/
http://rgho.st/8g68fTCSx две брошюры по deep learning для слесарей.
курс от китаёзы

яп
1. http://julialang.org/
2. https://www.microsoft.com/en-us/research/project/infernet/
3. https://www.r-project.org/
4. питухон и так все знают
5. idris/coq - модные яп для формально верифицированных нейроночек с тренировкой на этапе компиляции

ПЛАТИНА
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.

Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2017 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru

Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.

Что такое TensorFlow?
TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.

будет ли ML нужен в ближайшие 10 лет, или это просто хайп?
будет. хайп. хилари всех убьёт, лучше не вкатывайтесь ребята

смогу найти работу?
Яндекс, мейлру, касперский, несколько биоинформатических компаний (iBinom, можно еще blastim.ru поскролить на тему работы), билайн (они с НГ целое подразделение открыли под ML и биг дату), связной. Ну и западные аутсорсы, если готов рачить за валюту.

нужна математика?
для начинающего ничего особого знать не нужно

поясните за нейроночки
нейроночка - массив

Тред #1: https://arhivach.org/thread/147800/
Тред #2: https://arhivach.org/thread/170611/
Тред #3: https://arhivach.org/thread/179539/
Тред #4: https://arhivach.org/thread/185385/
Тред #5: https://arhivach.org/thread/186283/
Тред #6: https://arhivach.org/thread/187794/
Тред #7: https://arhivach.org/thread/196781/
Аноним 14/10/16 Птн 00:21:25  856257
(42Кб, 510x614)
>>856234 (OP)
По поводу второй пикчи, полгода с ребятами угарали по EP и VMP. С несопряжёнными моделями хуйня, надо бы найти какие-нибудь пространства распределений, в которых можно было бы пилить какие-нибудь годные аппроксимации.
Аноним 14/10/16 Птн 00:32:34  856260
(37Кб, 350x523)
>>856257
сопряжённые модели с гауссовым распределением
распределение параметров - гауссово распределение
распределение средних значений гауссова распределения параметров - гауссово распределение
распределение ковариации - распределение вишарта
гиперпараметры - точечные оценки
Аноним 14/10/16 Птн 11:36:00  856360
>>856260
Нет у нас сопряжённых моделей, у нас в экспоненицальных семействах сидит тьма нелинейностей.
Линеаризацию пытались - хуйня, MCMC - слишком долго, 17 часов до адекватного результата на картинке 100х100
Аноним 14/10/16 Птн 13:19:55  856394
>>856360
Я уже понял, что ты не слесарь.
Аноним 14/10/16 Птн 13:36:11  856401
если дабл то все кто выше - слесари
Аноним 14/10/16 Птн 13:43:17  856406
А датасцайентисты и NLP-гуру у вас есть? Посоветуйте, как быть с нечетким поиском.
Одна из практических задач: есть конфочка со списком пользователей — ерохин, sychov, yoba, peka, biтард итд. — и есть бот, который должен реагировать на команды вида "забань ероху", "кикни ёбу", "mute bitard". Я понимаю, что это можно сделать как-то путем приведения всех имен к одному или нескольким "нормализованным" видам(кириллическая транслитерация, латинская транслитерация, фонетическое представление в нескольких вариантах) и вычислениям расстояния Левенштейна, например. Но наверняка эта задача уже давно решена и для нее есть готовые библиотеки, которые я пока не смог нагуглить. Можете что-нибудь подсказать?
Аноним 14/10/16 Птн 14:08:37  856417
>>856406
Эта задача решается автодополнением никнейма по табу.
Аноним 14/10/16 Птн 14:09:08  856418
>>856406
Транслитерируй и гугли soundex / sounds like, ML тебе тут не нужен.
Аноним 14/10/16 Птн 14:16:06  856422
>>856417
Ты предлагаешь решение другой задачи.
>>856418
Точно, совсем про Methaphone/Soundex семейство забыл, спасибо.
>ML тебе тут не нужен.
Это я знаю, но у нас нет NLP-треда. А NLP-тематика мне кажется родственной обучению. Я ошибаюсь?
Аноним 14/10/16 Птн 14:28:41  856428
>>856422
Если говорить об обучении применительно к NLP, то тебе сперва нужен охрененный объём текстовых данных с соответствующими формализованными значениями. В примерно таком формате:
Словоформа, Значение, Падеж, Число
Ероха, 0.1342, 1.0 (И.П.), 0 (ед.)
Ерохин, 0.1342, 1.0 (И.П.), 0 (ед.)
Ероху, 0.1342, 0.7 (В.П.), 0 (ед.)
Ерох, 0.1342, 0.7 (В.П.), 1.0 (мн.)
Вася, 0.2045, 1.0 (И.П.), 0 (ед.)

Значения, соответственно, определяешь просто беря float по номеру в списке возможных значений в выборке. И да, прочие падежи и числа ещё зависят от контекста. Ну так вот, как научишь нейросеть определять значение по словоформе и контексту - считай дело в шляпе, можно распознавать любую форму любого логина, а также команды, если на глаголы надрочишь. Вот только soundex будет сильно проще, чем такие глобальные задачи решать.
Аноним 14/10/16 Птн 16:54:43  856534
>>856406
Оверкилл задачи же, в cs 1.6 подобная задача была решена довольно неплохо.
Аноним 14/10/16 Птн 16:55:27  856535
>>856534
Каким образом?
Аноним 14/10/16 Птн 16:57:13  856538
>>856535
Без всякого NLP.
Комманда !ban @nickname работала.
Аноним 14/10/16 Птн 17:09:53  856545
>>856538
а если никнейм =

''\\з= ( ʖ) =ε//’’ cRaZy|TaLiBaN [fRoM] fK cAiR* ''\\з= ( ʖ) =ε//’’

как тогда?
Аноним 14/10/16 Птн 17:12:08  856547
>>856545
Бан по айди или номеру в команде, чё-то такое.
Аноним 14/10/16 Птн 17:14:08  856551
>>856545
Простейший парсер комманд. Парси до первого пробела.
Аноним 14/10/16 Птн 17:14:41  856552
>>856547
Охуенное решение задачи, да уж. Задача-то состоит в том, что с таким ником сработает простое "бан Талибан", ахалай-махалай.
Аноним 14/10/16 Птн 17:22:11  856559
>>856552
Ну в самом "талибан" не все буквы могут быть на латинице/кирилице, поэтому такое решение и необходимо.
Аноним 14/10/16 Птн 17:34:13  856561
>>856406
LSA жи есть. Если бота научить на нормальном корпусе документов (полно готовых), баны сможет лепить не только по близости слов с точки зрения расстояния Левенштейна (что вообще прошлый век), но и по семантической близости, притом не только отдельных слов, но и предложений. Проблема чисто техническая - как прикрутить LSA к боту. И да, раз уж вспомнили слово "нечеткий", то оно очень к месту, т.к. семантическую близость одного слова/словосочетания к другому можно рассматривать как нечеткое отношения со степенью принадлежности от 0 до 1.
Аноним 14/10/16 Птн 17:53:16  856568
>>856559
> необходимо
Да неужели? Для твоей задачи ничего не нужно кроме транслита и fuzzy matcher'а как во всяких саблимах.

Или вот, дано три пользователя:
____________DEADPOOL__________ ___________DEADPOOL___________ ____________DEADPOOL_________

Тебе нужно забанить одного определенного из них. Enjoy your NLP.
Аноним 14/10/16 Птн 18:13:52  856581
>>856568
Во-первых, это не моя задача.
Во-вторых, это чудовищный оверинжирининг, причём абсолютно бесцельный.
В-третьих, не понял при чём твой пример с одинаковыми никнеймами. Айдишники как раз от такой залупы и спасают.
Аноним 14/10/16 Птн 18:25:10  856585
>>856581
> Во-первых, это не моя задача.
Ах, я подумал, что ты тот, кто предлагал "бан ероху", а ты про бан по айди говорил?

> Айдишники как раз от такой залупы и спасают.
Согласен, либо тупо кликать мышкой по сообщению / пользователю.
Аноним 14/10/16 Птн 19:45:04  856648
ML - подзалупное говно, популярное только в рашке, сране тупых пидорасов, которые хотят по-простому зарабатывать.

ML основано на вероятностной модели, поэтому, например, в робототехнике, если рука цуборга бьет тебе в ебало, она может промахнуться.

Но если вместо вероятностной модели использовать алгебраическую геометрию, точность будет идеальна. Однако для того, чтобы использовать алгебраическую геометрию, надо прочитать не одну толстую книжку, и только через несколько лет будет профит.

В этом разница между пидорашкинской наукой и зарубежной.
Аноним 14/10/16 Птн 19:49:41  856650
>>856648
Совсем вы уже со своим швитым западом поехали.
Аноним 14/10/16 Птн 19:49:48  856651
>>856648
каждый раз поражаюсь точностью формулировок
Аноним 14/10/16 Птн 19:50:32  856652
>>856648
>Однако для того, чтобы использовать алгебраическую геометрию, надо прочитать не одну толстую книжку, и только через несколько лет будет профит.
Что же лучше:
-рука, которая бьет в ебало 5 раз из десяти, созданная за год;
-рука, которая попадает каждый раз, но которую еще пилить и пилить?
Этот вопрос в бизнесе уже давно решен. А твои представления о Западе сформированы экомацой.
Аноним 14/10/16 Птн 19:57:09  856658
(62Кб, 604x604)
>>856648
так толсто что даже читать и отвечать не буду
Аноним 14/10/16 Птн 20:09:11  856663
>>856648
> ML - подзалупное говно, популярное только в рашке, сране тупых пидорасов, которые хотят по-простому зарабатывать.
Угадай страну с наибольшм количеством вакансий в ML.

>>856648
> ML основано на вероятностной модели, поэтому, например, в робототехнике, если рука цуборга бьет тебе в ебало, она может промахнуться.

А то люди не промахиваются, а сейчас в AGI даже ставят себе задачу достижения качества хотя бы человека.

> Но если вместо вероятностной модели использовать алгебраическую геометрию, точность будет идеальна. Однако для того, чтобы использовать алгебраическую геометрию, надо прочитать не одну толстую книжку, и только через несколько лет будет профит.

Стоимость разработки учитываешь? ML, не считая йоба диплёнинг, может пилить школьник на лаптопе два гига, два ядра.

> В этом разница между пидорашкинской наукой и зарубежной.

ЛеКун, Хинтон, Ын, Шмидхубер, Хуттер и Гёртцель наши люди, да.

Аноним 14/10/16 Птн 20:34:54  856677
(85Кб, 670x503)
>Но если вместо вероятностной модели использовать алгебраическую геометрию, точность будет идеальна. Однако для того, чтобы использовать алгебраическую геометрию, надо прочитать не одну толстую книжку, и только через несколько лет будет профит.

Копроматематики себе могут считать своими грязным ручишками что угодно, потом в любом случае задачу с цуборгом будет нужно решать управленцам, а в ТУ посмотрели на мазню математиков, сказали что оптимальная траектория - это конечно хорошо, а потом ввели внешнее возмущающее воздействие и сказали что это белый шум и не ебет. И вообще, всё суть черный ящик, главное шоб работало.

>>856652
Ты тоже хорош. Из твоих условий оптимального решения не может быть принято.
Аноним 15/10/16 Суб 20:23:44  857183
(35Кб, 1014x281)
Маам, маам, я в телевизоре!
Аноним 15/10/16 Суб 20:29:15  857187
(48Кб, 624x416)
>>857183
from scikit-learn import GradientBoosting
Аноним 15/10/16 Суб 21:25:33  857213
>>857183
нахуй нужно, есть хгбуст
поста поста постакаем на своём веку
Аноним 15/10/16 Суб 21:26:09  857214
>>857183
нахуй нужно, есть хгбуст
поста поста постакаем мы на своём веку
Аноним 16/10/16 Вск 16:10:09  857689
http://lemire.me/blog/2016/10/14/intel-will-add-deep-learning-instructions-to-its-processors/
Аноним 16/10/16 Вск 16:58:43  857721
>>856234 (OP)
Анончики, где можно найти нормальный туториал по тензорфлоу? Документация вроде выглядит нормально, но хочется последовательного повествования с объяснением всего по порядку
Аноним 16/10/16 Вск 18:04:44  857763
>>857721
А что там объяснять?
Аноним 16/10/16 Вск 20:02:08  857833
>>857721
Палю годноту:
https://www.kadenze.com/courses/creative-applications-of-deep-learning-with-tensorflow/info

Можно даже в шапку добавить будет.
Аноним 16/10/16 Вск 20:02:17  857834
>>857763
Ну мне многое непонятно.

Что такое сессия? На сайте ТФ написано что мы строим граф и выполняем все на С++ чтобы быстрее было, ну а соединение называется сессией. Ахуенно, а какая разница между
with tf.Session() as session: и tf.InteractiveSession() ?

Что за модели?
model = tf.initialize_all_variables()

Да и вообще хочется нормального, структурированного описания всего, а на сайте тф только пара примеров с описаниями что в каждой строчке делается. Все-таки отдельный фреймворк, своя структура кода должна быть, свои бест практисес и прочее.
Аноним 16/10/16 Вск 20:43:53  857856
>>857833
Спасибо, выглядит очень годно
Аноним 16/10/16 Вск 20:53:09  857865
>>857856
На самом деле только выглядит, мне кажется, что порой проще залезть в сырцы фреймворка/либы. Правда, там порой такой пиздец творится, что хочется громко и долго рыдать на кухне с водкой и песнями Пугачёвой.
Аноним 16/10/16 Вск 21:27:12  857903
>>856234 (OP)
Пытаюсь сделать XOR пример на хаксе, но результаты выходят неважные.

Error min: 0.146679667762552
Weight :[0.993097859025368,0.358106194371963,0.993144590457381,0.548357773363591,0.400469323659122,0.97559483873481]
0.665529010529132
0.713105233922201
0.70400433350312
0.740206773359699

вместо 0, 1, 1, 0

код
http://pastebin.com/D6wStRdx

Что я делаю не так?
Аноним 16/10/16 Вск 23:20:08  857968
>>857903
обьясни что ты делаешь
Аноним 16/10/16 Вск 23:53:10  858017
>>857903
Ты в каждой эпохе рандомишь веса?
Аноним 17/10/16 Пнд 00:25:00  858051
он рандомом перебирает веса
Аноним 17/10/16 Пнд 01:35:55  858073
>>857903
> weight[j] = Math.random();
это всегда даёт положительные числа?
возможно тебе нужны отрицательные веса
Аноним 17/10/16 Пнд 08:27:00  858145
>>856648
Ты можешь вкатиться с ML, поднять бабла и купить себе трактор. Нет, ты будешь ныть. Дай угадаю, хотел вкотиться (мяу), но не осилил?
Аноним 17/10/16 Пнд 08:29:56  858147
>>856652
Лучше рука, которая попадает всегда.

Ты мыслишь как <сюда что-нить русофобское>, тебе главное по бырику балбецп кропаль поднять и по тапкам.
А вот <сюда подставить восхищение западом> работают на перспективу.

Как только рука будет доделана - всем плохим рукам останется только дрочить, попадая в пинус 5 раз из 10.
Аноним 17/10/16 Пнд 12:17:03  858211
>>858051
Причем делает это на хаксе. Есть ли предел извращению?
Аноним 17/10/16 Пнд 14:13:46  858270
ПАЦАНЫ, Я КОРОЧЕ ШЕЛ СЕГОДНЯ ПО ОФИСУ И УВИДЕЛ ЧЕЛА В МАЙКЕ "ANN & ML", НУ Я ПОДСКОЧИЛ И РЕЗКО ПЕРЕЕБАЛ ЕМУ В ЩЩИ С ВЕРТУШКИ И ПОЯСНИЛ ЭТО КРИКОМ "НЕ ЛЮБЛЮ НЕЙРОНКИ", ПОТОМУ ЧТО Я УГОРЕЛ ПО НИСХОДЯЩЕМУ ПОДХОДУ, ПАЦАНЫ ДУХ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА ЖИВЕТ ТОЛЬКО В ЛОГИЧЕСКОМ ПРОГРАММИРОВАНИИ, ГДЕ ЕБАШАТСЯ ПО ХАРДКОРУ, ГДЕ ПАЦАНЫ ЖИВУТ СИМВОЛЬНЫМИ ВЫЧИСЛЕНИЯМИ, ЭКСПЕРТНЫМИ СИСТЕМАМИ И ЕБУТ МАШИННОЕ ОБУЧЕНИЕ В РОТ! ТОЛЬКО PROLOG, ТОЛЬКО ХАРДКОР!!! МАККАРТИ ХАРДКОР МАКЛИСП ПРОЛОГ!!! пацаны ебашьте нейронщиков, машинлёрнеров, датасайнсеров, тензороёбов, угорайте на Macsyma, любите Алена Колмероэ, PROLOG и базы знаний! ГОВОРИТЕ ОТКРЫТО И СМЕЛО ПРЯМО В ЛИЦО! TOP-DOWN AI!
Аноним 17/10/16 Пнд 14:33:43  858282
>>858270
Поясни за гиперграфы с динамическими Байесовскими сетями в когнитивных архитектурах?
Аноним 17/10/16 Пнд 15:07:18  858295
(38Кб, 500x500)
>>857968
пытаюсь сделать пример отсюда
https://habrahabr.ru/post/312450/

>>858017
Да

>>858073
Math.random() выдает значения от [0.0, 1.0]
Если нужны и отрицательные, то в каком диапазоне?
Аноним 17/10/16 Пнд 15:47:05  858341
(270Кб, 999x1500)
>>858295
попробуй хотя бы [-5.0, 5.0] или [-10.0, 10.0]
[0.0, 1.0] уже совсем тухло
Аноним 17/10/16 Пнд 16:12:06  858352
>>856677
>Копроматематики
Я тебе ща хуйцов в жопу-то понапихаю, пидор ебучий, сука!
Аноним 17/10/16 Пнд 17:06:18  858391
>>858341
попробовал, результаты все равно не важные
Аноним 17/10/16 Пнд 17:29:35  858406
>>858295
Ты понимаешь что такое эпоха?
Зачем каждый раз рандомить? Естественно она у тебя обучаться не будет.
Аноним 17/10/16 Пнд 17:30:38  858407
>>858391
покажи новый код
можешь ехо увеличить до 6000000 например
алсо твой подход тоже не важный, оно может и не заработать вообще
Аноним 17/10/16 Пнд 17:33:17  858410
>>858407
http://pastebin.com/gL49zEmr

изменил генерацию весов на
weight[j] = Math.random()*10 - 5;
Аноним 17/10/16 Пнд 17:38:45  858414
>>858410
> var oInput:Float = h1Output weight[4] + h1Output weight[5];
тут ошибка?
Аноним 17/10/16 Пнд 17:50:17  858424
>>858410
Тебе рандомить надо ДО обучения.
Аноним 17/10/16 Пнд 18:44:12  858456
(267Кб, 1280x848)
>>858414
в чем?

>>858424
Я вроде как так и делаю. Вот написал более подробные комментарии к коду
Аноним 17/10/16 Пнд 18:48:54  858459
>>858456
this
http://pastebin.com/WvjneNsu
Аноним 17/10/16 Пнд 18:52:04  858460
>>858459
Вот так короче должно быть
http://pastebin.com/cYANUPF5
За 4 примера ты нихера не сможешь обучить рандомные веса.
Аноним 17/10/16 Пнд 18:53:20  858461
(289Кб, 1024x768)
>>858456
> в чем?
> h1Output · weight[4] + h1Output · weight[5];
->
> h1Output · weight[4] + h2Output · weight[5];
х2аутпут похерился когда ты копипастил
Аноним 17/10/16 Пнд 18:53:48  858462
>>858459
Бля, погоди, так у тебя же и веса не обновляются нигде.
Аноним 17/10/16 Пнд 19:00:06  858463
(54Кб, 500x636)
>>858461
Ужас, ну и невнимательность. Спасибо, результаты улучшились, но все равно далеки от "ожидаемых".

Error min: 0.0169421714870966
Weight :[4.20252078023247,-4.62134012761918,4.94013903530838,-4.75568818215233,2.00273622097117,-4.90724424147019]
0.189654914015695
0.875081564899919
0.872740092290493
0.88101808022021

Последнее число, должно быть приближено к нулю.

>>858460
Так мне нужно всего решить эти четыре примера, что же касается эпох, то они проходят и весы обновляются. Сурс ниже

//Начинаем новую эпоху обучения
for (i in 0...echo){
//iteration
//weight generation
//Заново генерируем случайный массив весов
var weight:Array<Float> = new Array<Float>();
for (j in 0...6){
weight[j] = Math.random()*10 - 5;
}
Аноним 17/10/16 Пнд 19:04:13  858470
>>858463
Тебе надо не решить 4 примера, а на этих четырех примерах у тебя должна обучаться сеть, чтобы потом подобные примеры решать.
Аноним 17/10/16 Пнд 19:05:21  858472
>>858463
поставь веса интервал [-20.0, 20.0]
и подольше погоняй, должно сойтись
Аноним 17/10/16 Пнд 19:09:44  858478
>>858470
Разве обучения тут нет? Есть четыре примера и четыре идеальных ответа, сменяя типы весов, где получается ответ с минимальной ошибкой и есть обученная сеть. Или я чего то не понял.

>>858472
Сделал 200 000 эпох, весы - как указано у Вас.
Результаты, однако, занятные.
Error min: 1.28708409018419e-006
Weight :[9.86162644029049,-9.62339217008311,11.9078840327887,-15.7031429090112,7.70839242490986,-19.9625130491306]
0.00217823378333181
0.999551134126215
0.999550385305801
0.999551158780416

все не пойму, почему последняя цифра стремится к 1, а не к нулю.
Аноним 17/10/16 Пнд 19:27:47  858492
>>858478
> Error min: 1.28708409018419e-006
ошибка тоже не правильная, должна быть около 1 с такими выводами
Аноним 18/10/16 Втр 12:26:01  858915
(1925Кб, 3000x1951)
а хгбуст то ВСЁ
https://github.com/Microsoft/LightGBM/wiki/Experiments
Аноним 18/10/16 Втр 13:21:26  858956
>>858915
Ну все, новая игрушка у школуйни. Теперь все задания на кеггле будут этой хуйней пердолить.
Аноним 18/10/16 Втр 14:01:33  858994
>>856652
>>856648
>, если рука цуборга бьет тебе в ебало

Тут все жирнее - на самом деле, нихуя ты со своей алгебраической геометрии не получишь, кроме как доказательства существования руки в пространствах размерности не менее N с метрикой µ и при некоторых других дополнительных ограничениях которые потребовалось ввести, чтобы доказать эту теорему существования.

Такова алгебраическая геометрия
Аноним 18/10/16 Втр 14:46:29  859037
(23Кб, 393x262)
Здаров Анон, дублирую пост, пишу научную работу, выбрал научрука, интересно было машинное обучение, выбор был не большой, из 1 тела, сначала я просто читал, много, много... читал. Начитавшись, начал заниматься темой что мне предложил научрук, а именно - этап нормализации лиц для распознавания, написал алгоритм, вывожу 68 точек описывающие характеристики лица, получаю вектора лиц, кароч все норм, но этот пес сказал мне не юзать НС, ибо типо нет ресурсов у нас, и вот написал, собрал каскад. Дальше что делать не особо понятно, в первые обратился к нему, просто помогите определится с направлением движения - нужна научная новизна. Он ничего не может сказать и тут я понял что он вообще не понимает что я написал и что я сотворил, я к нему с вопросом относительно направления, он мне в ответ, нужно выбрать направление. Что делать Анон? (Магистратура)
Текущий результ на пикче, поднес картинку с телефона к вебке.
Основной вопрос, есть нормальный, мной написанный, алгоритм выравнивания без нейросети, в каком направлении двигаться? Что почитать? Нужна научная новизна.
Аноним 18/10/16 Втр 15:28:00  859065
>>859037
Глаза нашёл криво, ту этого ТП-поделия и то лучше получается: https://play.google.com/store/apps/details?id=com.cyberlink.youcammakeup - работает в риалтайме, похоже, что тоже без НС обошлись. Правда при повороте в полупрофиль начинает попизживать - у тебя с этим как?
А вообще - не заморачивайся, наша наука в таком перде, что защитить может кто угодно любую пургу, сама по себе наша степень ничего не значит - хоть инновационный калькулятор пиши. Вот если по факту в твоей работе есть что-то ценное и препринт заинтересует дядей за бугром, то может выйти толк.
Аноним 18/10/16 Втр 15:41:50  859075
>>859065
Знаю это дерьмо, там реализация алигмента от dlib, если интересно можешь глянуть, профиль немного тоже пидорасит у меня. Фишка моей работы в том что он разметит лицо даже его видно лишь на 60%, то есть закрой рот ладонью, он определит. А то что глаз подпидорасило, ну бывает хули, он быстро возращается обратно. Хз, требования большие у нас в универе. Просто ебанаты, такие как мой научрук могут не допустить к защите, если я не сделаю ничего нового. А чего сделать сказать не могут.
Аноним 18/10/16 Втр 16:04:08  859081
>>859075
>dlib
Ну так и поясни, что новизна в том, что лицо определяется при неполной видимости.
Аноним 18/10/16 Втр 16:17:43  859088
>>859081
Этого мало, потому что есть подобные методы, пусть решено по другому но все же есть. Я ж говорю, доебались пиздец. Новое давай, а чего давать не знают.
Аноним 18/10/16 Втр 16:30:07  859096
>>859088
Ну, йопт. Добавь распознавание
1. Состояния глаз (открыт/закрыт)
2. Точек для закрытого глаза
3. Распознавание профиля и полупрофиля.

А также отслеживание текущего лица и использование его признаков для выравнивания в дальнейших кадрах (может пригодиться при поиске профиля/полупрофиля: т.е. мы уже знаем, как выглядит конкретный уголок конкретного глаза и можем этим воспользоваться при поиске опорной точки на сложном кадре с профилем)

Будет ново и охуенно, запилишь статью на хабре, прославишься. На научрука похуй, но ему тоже может понравиться.
Аноним 18/10/16 Втр 16:35:30  859098
>>859096
Надо на сколяре погуглить. Ок спс за и идею. Но чет есть такое уже, помню читал подобное.
Аноним 18/10/16 Втр 16:40:40  859103
>>858915
А у них есть сайт с красивыми картиночками? У хгбуст есть.
Аноним 18/10/16 Втр 17:26:53  859118
(10Кб, 500x500)
>>859103
но раскрасок то у них нет
Аноним 18/10/16 Втр 19:25:17  859169
>>856234 (OP)
> нужна математика?
> для начинающего ничего особого знать не нужно
А потом мне пиздец?
Аноним 18/10/16 Втр 19:43:33  859189
>>859169
Если полезешь в statistical learning.
Аноним 18/10/16 Втр 19:57:53  859196
(63Кб, 590x393)
>>859169
тебе в любом случае пиздец
Аноним 18/10/16 Втр 20:09:40  859209
>>859196
От пикрила шишка встала.
Весь сет выложить можно?
Аноним 18/10/16 Втр 20:14:58  859211
>>859209
ну выкладывай
Аноним 18/10/16 Втр 20:18:06  859213
>>859211
У меня нет.
У тебя есть?
Выложить можешь?
Аноним 18/10/16 Втр 23:12:06  859353
Датаны, посоветуйте что прочитать про классификацию ML методов. А то могу только в нейроночки и немного а SVM. А что такое random forest и почему нельзя использовать нейроночки вместо всех остальных методов я не знаю.
Аноним 18/10/16 Втр 23:30:31  859362
(1988Кб, 1280x676, 00:00:15)
>>859353
читни книжек из шапки
читни бишопа, мёрфи читни, у них все методю хорошо расклассифицированы
Аноним 19/10/16 Срд 00:53:20  859403
Привет, двач. Хочу в будущем заниматься машинным обучением. В какую сторону лучше двигаться: становиться программистом или заниматься научной деятельностью? С одной стороны, хочу делать что-то прикладное, чтобы виден результат, с другой хочу создавать что-то новое. Хватает ли обычным программистам знаний для того, чтобы заниматься исследованиями?
Интересно так же, как происходит работа над новыми технологиями в тех же google и miсrosoft: принимают ли в этом участие обычные разработчики или только люди с PhD из research отделов?
Аноним 19/10/16 Срд 10:23:20  859507
(38Кб, 543x604)
Аноны, поясните пожалуйста за нормализацию. Это реально может повысить качество предсказания?
Ну вот предположим я нормализовал данные и вот приходит мне строка с тестовыми данными, что мне с ней делать, как ее нормализовать?
Аноним 19/10/16 Срд 10:34:14  859514
>>859507
Аниму меньше смотри, даун.
Аноним 19/10/16 Срд 10:36:24  859516
>>859514
Я ее не смотрю, просто няшка понравилась
Аноним 19/10/16 Срд 10:59:33  859534
>>859507
Забыл добавить, что у меня задача линейной регрессии.
Аноним 19/10/16 Срд 11:00:07  859535
>>859507
Забыл добавить, что я строю линейную регрессию.
Аноним 19/10/16 Срд 11:03:00  859538
>>859535
Какие признаки?
Аноним 19/10/16 Срд 11:12:44  859547
>>859538
Их там около 200. Признаки все float'ы.
Аноним 19/10/16 Срд 11:15:23  859550
>>859547
Нормализация переведёт все признаки в double/float.

Серьёзно, что признаки собой представляют, как и чем их извлекал?
Аноним 19/10/16 Срд 11:19:52  859555
>>859507
Озаботься тем, чтобы у тебя даже в теории предельные значения тестовых данных не вылазили за предельные значения датасета. То есть, если датасет у тебя строго от 0 до 65535, то тестовые данные не более того. Если западло или не реально, то выравнивай по теоретическим максимуму/минимуму.
Аноним 19/10/16 Срд 11:21:29  859559
>>859550
Это обезличенный реальный дата сет. У нас учебное приватное соревнование на кегле. Это просто X и y. Нам даже не сказали что это.
Я вроде все перепробовал, и вот решил попробовать нормализовать данные. Но я честно говоря не понимаю, что это даст, да даже если и даст, как мне потом прогнозировать то? Данные тестовые у нас же не нормализованны!
Аноним 19/10/16 Срд 11:44:46  859571
>>859555
Спасибо за совет.
Попробовал нормализовать, нихуя. Даже немножко ухудшилось качество предсказания.
Аноним 19/10/16 Срд 11:45:45  859573
>>859403
>Привет, двач.
Двач давно мертв, ты находишься на филиале мейлру.
>Хочу в будущем заниматься машинным обучением.
Похвально.
>В какую сторону лучше двигаться: становиться программистом или заниматься научной деятельностью? С одной стороны, хочу делать что-то прикладное, чтобы виден результат, с другой хочу создавать что-то новое.
См. прошлый тред про слесарное дело и науку, и выбери для себя. Если ты хочешь, чтобы я за тебя решил, то иди в науку. Естественно, программировать нужно будет в любом случае, если ты не на бумажке собрался нейроночки считать.
>Хватает ли обычным программистам знаний для того, чтобы заниматься исследованиями?
Нет.
>Интересно так же, как происходит работа над новыми технологиями в тех же google и miсrosoft: принимают ли в этом участие обычные разработчики или только люди с PhD из research отделов?
Новые технологии разрабатывают пхд, внедряют обычные кодерки.
Аноним 19/10/16 Срд 11:50:35  859575
Ребята, а вообще у вас есть какие нибудь лафхаки, как улучшить качество предсказания линейной регрессии?
Аноним 19/10/16 Срд 11:53:10  859577
>>859575
Не использовать линейную регрессию.
Аноним 19/10/16 Срд 11:55:44  859579
>>859577
Ну вот надо именно ее, есть что нибудь еще, короме нормализации, добавления-удаления факторов-наблюдений?
Аноним 19/10/16 Срд 11:58:41  859581
>>859579
Есть выбросы?
Аноним 19/10/16 Срд 12:03:07  859584
>>859581
Был один, но я его уже выкинул, качество модели улучшилось существенно.
Аноним 19/10/16 Срд 12:32:54  859618
>>859575
https://en.wikipedia.org/wiki/Bayesian_linear_regression

>>859571
наверно где-то обосрался
Аноним 19/10/16 Срд 12:33:42  859619
>>859584
А если найду?
Аноним 19/10/16 Срд 12:55:10  859629
>>859559
Прогнозировать денормализацией. Алсо, большинство алгоритмов заточено на представление данных в виде числа с плавающей точкой в диапазоне значений 0..1, также в таком случае значение ошибки легко приводится к %.
Аноним 19/10/16 Срд 13:05:57  859642
>>859629
Где про это почитать можно?
Аноним 19/10/16 Срд 13:13:37  859647
>>859618
Проверил еще раз. Просто ничего не изменилось.
Аноним 19/10/16 Срд 13:36:40  859656
>>859647
>>859507
лол пардон, упустил
> Это реально может повысить качество предсказания?
нет
Аноним 19/10/16 Срд 17:22:08  859823
Почему для opencv до сих пор нет адаптера под третий питон?
Аноним 19/10/16 Срд 17:38:08  859836
>>859823
Спроси ещё откуда там такая упоротая система хранения информации в изображении. Потому что OpenCV очень костная либа, править и адаптировать там что-либо - сущий ад.
Аноним 19/10/16 Срд 17:56:08  859852
>>859823
Из сорцов собирай, что как не родной.
Аноним 19/10/16 Срд 19:55:11  859964
>>859037
двачую другого анона, в рашке, украшке и тд науки нет. Защитишь все, что угодно. Можно добавить какую-то специфику, типа шумных условий, распознавании лиц нигеров, распознавании мимики и тд. Кроме того, насколько я понимаю, эта задача уже решена.
Аноним 19/10/16 Срд 19:59:07  859967
>>859516
Хороший выбор.
Аноним 19/10/16 Срд 20:49:02  860014
>>859852
На самом деле и правда не родной, первый день как вкатился в мл.
Аноним 20/10/16 Чтв 11:50:10  860458
>>856234 (OP)
Анончики, сложно сделать нейроночку, чтобы она за меня реферат написана на основе нескольких готовых, чтобы этот рефер через антиплагиат прошёл?
Аноним 20/10/16 Чтв 11:58:37  860463
>>860458
Да.
Аноним 20/10/16 Чтв 12:12:50  860481
>>860463
Как? Неужели никто готовых решений не реализовал до меня?
Аноним 20/10/16 Чтв 12:30:18  860489
В контесте от Сбербанка участвует кто-нибудь? Палите результаты. Или тут тред теоретиков, вяло рассуждающих о будущем?
Аноним 20/10/16 Чтв 12:32:06  860491
>>860489
> тред теоретиков, вяло рассуждающих о будущем?
this.

Но, если кто-нибудь будет тащить сюда и обсуждать реальные задачи, то все будут только рады.
Аноним 20/10/16 Чтв 13:12:10  860515
>>859507
Масштабирование данных (в общем смысле, не только конкретно нормализация) нужны для того, чтобы алгоритм работал с данными в более-менее стандартизованном масштабе. Основные подводные камни - не все данные можно масштабировать под одну гребенку и не все методы масштабирования применимы в конкретном случае. Нужно понимать, что это даст именно в данном случае, т.е. для конкретного алгоритма на конкретном датасете, т.е. как минимум нужно представлять работу алгоритма, что именно он делает с данными и желательны некоторые познания в предметной области, касающейся происхождения датасета. А не просто нормализовать все подряд потому что где-то так посоветовали.
Аноним 20/10/16 Чтв 13:13:45  860518
(57Кб, 692x488)
>>860491
3 задачи. Сайт - https://contest.sdsj.ru

Задача A
Для клиентов, у которых неизвестен пол (которых нет в обучающей выборке customers_gender_train.csv, но которые есть в transactions.csv), необходимо предсказать вероятность быть мужского пола (значение 1).
Пример решения: http://nbviewer.jupyter.org/urls/dl.dropbox.com/s/pcoqkxzn4nnc4mj/baseline_a.ipynb

Задача B
Необходимо предсказать объем трат по каждой из 184 категорий на каждый день следующего месяца. Итоговый файл должен содержать предсказания по 184 30 = 5520 объектам. Объем трат в конкретной категории считается как сумма всех расходных транзакций в текущей категории по всем пользователям.
Пример решения: http://nbviewer.jupyter.org/urls/dl.dropbox.com/s/tbtomfkohwe02qz/baseline_b.ipynb

Задача C
Необходимо предсказать объем трат в следующем месяце в каждой из 184 категорий для каждого customer_id, которого нет в обучающей выборке customers_gender_train.csv, но есть в transactions.csv. Итоговый файл должен содержать предсказания по 184
3 000 = 552 000 объектам.
Объем трат пользователя в конкретной категории считается как сумма всех расходных транзакций этого пользователя в текущей категории.
Пример решения:
http://nbviewer.jupyter.org/urls/dl.dropbox.com/s/j1595xoqa9oheyo/baseline_c_new.ipynb

Если кого заинтересовало, регайтесь. Введенную инфу не проверяет. На мыло ничего не присылает. Телефон тоже молчит. Решения можно загружать таблицей и автоматом получить оценку.
Архив с данными для лентяев - http://rgho.st/6B979GQqZ

Из того, что получилось у меня. Высчитал даты, которых изначально не было в оригинальной таблице. Прикрутил к ним даты праздников РФ, но пока не знаю как буду использовать.
Улучшил решение задания А до 0.86, похимичив с amount, и только преступаю к B и С.
Из печального, в оригинальном файле отсутствуют многие типы транзакций, которые присутствуют в tr_types. Некоторые приходится угадывать.

Забавно, но в оригинальной таблице есть вот такое вот провисание (пикрелейтед) между тратами мужчина/женщина. Женщины почему-то в среднем сливают на мотоциклы больше, нежели мужчины. Не знаю уж, с чем это связано. Может скутеры покупают сыновьям-уебанам.

Если есть молодые и шутливые ребята, то можно в телеграмме продолжить обсуждение. Да и просто поболтать на эту тему.
Аноним 20/10/16 Чтв 13:16:28  860519
>>860489
>Сбербанк
>Или тут тред теоретиков, вяло рассуждающих о будущем?
Практик дохуя? LightGBM или xgboost решат любую задачу, предложенную грефопарашей, кто лучше научился настройки крутить, тот и победит.
Аноним 20/10/16 Чтв 13:18:36  860522
>>860519
Охуенно. Покручу, хуле. Ты сам-то на первое место накрутил уже?
Аноним 20/10/16 Чтв 13:19:37  860523
>>860518
>описание задач
Ну я же говорил. Хгбуст содомируй, лучше там все равно ничего не придумать. Алсо можешь еще SVM навернуть, тоже стильно-модно-молодежно.
Аноним 20/10/16 Чтв 13:21:40  860527
>>860523
Спасибо за совет.
Аноним 20/10/16 Чтв 13:22:52  860529
>>860522
>Ты сам-то на первое место накрутил уже?
Я теоретик, вяло рассуждающий о будущем. А тута чистая сантехника, а-ля первый оп-пик.
Аноним 20/10/16 Чтв 13:25:14  860535
>>860529
Для таких ребят, там есть еще вот это - https://sdsj.ru/challenge.html
Чем не будущее?
Аноним 20/10/16 Чтв 13:27:29  860539
>>860458
Зачем вам решать олимпиадные задачки, когда здесь имеется задача, непосредственно связанная с практикой?
Аноним 20/10/16 Чтв 13:29:01  860542
(509Кб, 1335x726)
>>860535
Бля, ну и ёбла у них на пике.
Последний во втором ряду сфоткался в стиле экстрасенсопараши.
Аноним 20/10/16 Чтв 13:29:29  860544
>>860539
Я слышал у третьекурсников в общагах неплохие нейронки за пачку доширака в аренду сдаются.
Аноним 20/10/16 Чтв 19:06:35  860826
>>860544
Говорят, что кусок сочной пиздятины они будут тюнить гиперпараметры всей комнатой.
Аноним 20/10/16 Чтв 19:07:03  860827
>>860826
> за кусок
быстрофикс
Аноним 20/10/16 Чтв 20:03:49  860873
>>859362
Сразу видно: дата слесарь преподаёт.
Аноним 20/10/16 Чтв 22:31:46  860998
(592Кб, 600x840)
>>860542
> саша видяхин
заебок чо
Аноним 21/10/16 Птн 14:16:39  861316
Блджад, помогите перевести вот эти два абзаца:

You can interpret the output as a probability. In particular, we interpret it as the probability:
P(Y=1 | X)
Which can be read as “the probability that Y is equal to 1 given X”. We usually just use this and “y” by itself interchangeably.


Of course, since binary classification can only output a 0 or 1, then the probability that Y=0 given X:
P(Y=0 | X) = 1 - P(Y=1 | X),

что это за "probability that Y=0 given X"? Куда копать для большего понимания, в сторону условной вероятности?
Аноним 21/10/16 Птн 14:34:26  861333
>>860542
последний во втором виду довольно известен в области в рашке, не знаю, толковый он или нет, но в интернете активен.
>>861316
вероятность, что y=0 при данном x
Аноним 21/10/16 Птн 15:25:53  861383
Сап лернач
Подскажите, пожалуйста, хороший задачник по терверу.
Аноним 21/10/16 Птн 17:24:17  861475
(114Кб, 322x474)
Добавьте уже в шапку какой-нибудь учебник по теорверу попроще и на русском, хоть "Теория вероятностей" Вентцель, вопросы типа >>861316 >>861383 показывают, что тута некоторые даже азов не знают, а ML без теорвера это разве что нечеткие модели, остальное почти все на вероятностях.
Аноним 21/10/16 Птн 17:27:01  861480
>>861475
Я нашел какой-то задачник у своего универа, решаю в данный момент по нему.
http://www.study.urfu.ru/Aid/Publication/970/1/Grahov.pdf
Аноним 21/10/16 Птн 17:40:29  861485
https://www.amazon.com/Introduction-Probability-2nd-Dimitri-Bertsekas/dp/188652923X
хорошая
Аноним 22/10/16 Суб 11:10:46  861786
>>861475

http://rgho.st/8GhWmZWpg
Аноним 22/10/16 Суб 13:42:09  861823
(829Кб, 661x644)
Там это, нейроночки научились абстрактный вырвиглазный прон рисовать. https://nplus1.ru/news/2016/10/21/neural-porn https://open_nsfw.gitlab.io/
Аноним 22/10/16 Суб 13:45:14  861827
(38Кб, 825x165)
>>861823
Здесь пару тредов назад даже поднимали этот вопрос.
Аноним 22/10/16 Суб 14:47:33  861848
>>861827
Хуи и пезды вместо собачек - это не то, обыкновенная пошлятина. Тут круче - нейроночку совращают NSFW-контентом, в итоге она накладывает на пейзажи и др. картинки не просто собачек или залупы, а саму суть порна, усвоенную ей в виде абстрактных фич подобного контента. Посмотри на фотки на гитхабе - как таковых половых органов нет, но при этом полученные картинки все-таки неуловимо порнушные. Любой человек посмотрит и скажет, что это ебля. Это жи чисто человеческий уровень абстракции, какой-нибудь художник вполне мог бы нарисовать такое, но нейроночка не человек. Все эти дипдримы - очень годное направление и в IT, и в искусстве, и в психологии даже.
Аноним 22/10/16 Суб 15:20:47  861858
>>861848
Нужные для результата факторы определяет всё равно человек, в меру своей человеческой однобокой фантазии.
Аноним 22/10/16 Суб 17:28:23  861907
https://open_nsfw.gitlab.io/
Аноним 22/10/16 Суб 17:29:03  861908
Блядь. Нувыпонели.
Аноним 22/10/16 Суб 17:35:51  861913
>>861908
спс пдрчл
Аноним 22/10/16 Суб 19:44:27  861957
>>861848
Это не "Хуи и пезды вместо собачек". Там принципиально другой подход к генерации, и нормальные люди прутся с этого. А у быдла - порно, да.
Аноним 23/10/16 Вск 01:02:32  862163
Какие разделы чистой математики родственны данной отрасли информатики?
Аноним 23/10/16 Вск 01:11:26  862173
>>862163
Статистика, теория информации, оптимизация?
Аноним 23/10/16 Вск 02:54:55  862214
(83Кб, 638x807)
>>862163
меры/тервер, множества, нечёткое логика
зачем?
Аноним 23/10/16 Вск 11:12:57  862265
>>860518
А как химичил с amount, если не секрет?
Алсо, как я понял, в базовом скрипте для зачади А они разворачивают таблицу, чтобы по строкам были только уникальные ID, а по столбцам mcc?
Ньюфаг, не пинай, обоссы.
Аноним 24/10/16 Пнд 15:51:57  862900
Аназмисы, у меня встал вопрос.
На всяких амазонах можно взять в аренду ну там с миллион инстансов, верно? Если ты богат, офк.
На каждом инстансе можно реализовать с 10 тысяч нейронов нейронов, допустим. Связь между этими нейронами тоже вполне можно реализовать.
Так почему нет хоть каких-либо больших нейронных сетей которые вполне могут распознавать речь, годно распознавать картиночки, видео, хуй знает что еще. В чем проблема?
Аноним 24/10/16 Пнд 15:54:16  862901
>>862900
Нахуя?
Аноним 24/10/16 Пнд 15:58:18  862904
>>862901
Как нахуя? Просто так, чтобы было. Да и применений можно найти массу.
Аноним 24/10/16 Пнд 16:01:11  862906
>>862900
Распараллеливание нейроночек в виде готовых решений только в прошлом году стало появляться в виде готовых к использованию проектов - TensorFlow там, MXNet. Сейчас как раз гогл и т.п. конторы реализовывают то, о чем ты говоришь. Результаты будут в обозримом будующем, года через 2-3.
Аноним 24/10/16 Пнд 16:08:36  862908
>>862906
Чот как-то медленно, не? Так много кода и сложность большая? Разве нельзя собраться с мыслями и написать свою реализацию отдельного нейрона и связей на локальной машине и через сеть?
И в случае готовых решений (TensorFlow, к примеру), почему это не реализовали вот прямо сейчас? Есть какие-то технические трудности?
Аноним 24/10/16 Пнд 16:14:07  862911
>>862904
> применений можно найти массу
Ну вот когда будет спрос - будет и предложение. Арендовать мульон инстансов у амазона прост так)) никто не будет.
Аноним 24/10/16 Пнд 16:15:22  862912
>>862908
>И в случае готовых решений (TensorFlow, к примеру), почему это не реализовали вот прямо сейчас? Есть какие-то технические трудности?
Все реализовано, распараллеливание вычислений подграфов одной сколь угодно большой нейроночки на сколь угодно большом количестве комплюктеров в тензорфлоу есть вот прямо здесь и сейчас. Родина дала, бери, занимайся.
Аноним 24/10/16 Пнд 16:18:15  862913
Больше того, там есть возможность записи промежуточных результатов вычислений. Допустим, один из камплюктеров, обсчитывающий некоторую часть нейроночки, сдох после недели непрерывной работы. Результаты не потеряются, а могут быть продолжены с момента последней записи сохраняющим узлом, а не с самого начала.
Аноним 24/10/16 Пнд 16:25:54  862916
>>862912
>>862913
Таки что, хоть прямо сейчас могу сделать нейросеть в миллиард-другой нейронов(графов?)? Какое потребление ресурсов у этого TensorFlow?
И самый волнующий вопрос, а почему никто такой хуйни не сделал раньше?
>обсчитывающий некоторую часть нейроночки, сдох после недели непрерывной работы
Тут наверное нужен вопрос про быстродействие, но совсем не разбираюсь в этом. Это всё будет работать в более-менее реальном времени?
Аноним 24/10/16 Пнд 16:29:06  862918
>>862916
Создаётся впечатление, что ты про какие-то абстрактные бананы рассуждаешь.
Что за задача, какая конкретно модель, бюджет?
Аноним 24/10/16 Пнд 16:34:52  862920
>>862916
>Таки что, хоть прямо сейчас могу сделать нейросеть в миллиард-другой нейронов(графов?)?
Да. Хоть в триллион, если есть достаточно аппаратных ресурсов. Отдельные аппаратные устройства в этой общей сети могут использоваться конкретно для ввода данных, н-р нейроночке на тензорфлоу или MXNet можно скармливать фото/видео/звук со смартфона. Конкретно на тензорфлоу не все заявленное разработчиками уже есть в общедоступной версии, я за модой не слежу, м.б. уже и разродились (обещали точно).
>И самый волнующий вопрос, а почему никто такой хуйни не сделал раньше?
Неизвестно. Много чего интересного не реализуют и даже не собираются.
Аноним 24/10/16 Пнд 16:40:57  862925
>>862918
Да нет никакой конкретной задачи, только абстракции. Может что появится в процессе изучения.
Накопил денег немношк, вот и думаю проебать их на недельный проект в несколько десятков тысяч инстансов хотя бы.
>>862920
Как-то это всё блядь странно, что ли. И еще раз, уточняющий вопрос про ресурсы. Сколько необходимо TensorFlow на тысячу графов? Может из-за потребления ресурсов никто даже не собирается этим заниматься в текущее десятилетие?
Аноним 24/10/16 Пнд 16:51:35  862932
(373Кб, 252x448)
>>862925
>уточняющий вопрос про ресурсы. Сколько необходимо TensorFlow на тысячу графов? Может из-за потребления ресурсов никто даже не собирается этим заниматься в текущее десятилетие?
Сверточные нейроночки вообще очень ресурсоемкие, собственно, поэтому и пришли к идее как-то все это распараллеливать. На одной машине все это еле дышит, даже если это многопроцессорный суперкомпьютер на GPU, типа теслы. В какой-то статье читал про нейроночку, которая на 4х процессорном тесле сходится по 4 недели, но там обучение было на сложном датасете. Другое дело, что тензорфлоу - это не только сверточные сети, там похоже вообще все что угодно можно сбацать, опять же была реализация карт Кохонена для тензорфлоу. https://codesachin.wordpress.com/2015/11/28/self-organizing-maps-with-googles-tensorflow/ Все зависит от конкретной задачи, что-то и на лету обработается, а что-то и на кластере будет тупить не одну неделю.
Аноним 24/10/16 Пнд 17:12:13  862942
>>862932
А есть какая-либо реализация нейросети которая менее требовательна к ресурсам? И вообще, от чего возникает такие требования к ресурсам системы?
Аноним 24/10/16 Пнд 17:30:34  862950
>>862942
твой мозг например
крайне, КРАЙНЕ экономен
Аноним 24/10/16 Пнд 17:51:45  862957
>>862942
>А есть какая-либо реализация нейросети которая менее требовательна к ресурсам?
Почти любые кроме сверточных сетей и всяких глубоких аутоэнкодеров и машин Больцмана.
>от чего возникает такие требования к ресурсам системы?
Там жи десятки слоев, и на каждом все эти перемножения тензоров. Хорошо еще, что сигмоиды оттуда выкинули, вместо них relu. Так бы вообще вся эта шляпа сходилась до японской пасхи.
Аноним 24/10/16 Пнд 18:31:02  862975
>>860518
> Прикрутил к ним даты праздников РФ
Расскажи как эту хуйню делал? Не руками же 0 и 1 вбивал?
Аноним 24/10/16 Пнд 18:33:27  862977
>>861316
google.com
условные вероятности
Аноним 24/10/16 Пнд 19:45:30  863012
>>862957
Такс-такс, очень спасибо. Ну и последний вопрос. Какие преобразователи используются кроме тензоров?
Аноним 24/10/16 Пнд 20:21:13  863039
Стоит задача написать сеть, которая смогла бы распознавать естественный письменный русский язык, а также обучаться на конкретных примерах: предложение -> выделенные сущности из предложения. Аноны, в какую сторону копать, что читать?
Аноним 24/10/16 Пнд 20:31:45  863042
>>863039
Как распознавать отдельные рукописные символы можно посмотреть на примере датасета MNIST. Там цифры, но общий принций сохраняется. Легко гуглятся разные способы работы с этим датасетом. А вот как разбить слова на отдельные буквы - хз. Думаю, задача решаема с приемлемой погрешностью, но примеры как это делать в голову не приходят.
Аноним 24/10/16 Пнд 20:55:06  863050
>>863042
Я, наверное, не точно выразился. У меня на входе именно текст (строки), а не картинки с текстом. Надо обучить сеть таким образом, чтобы она смогла вычленять от туда определённые сущности.
Например, есть статья с погодой на завтра. Надо вычленять город и кол-во градусов.
Аноним 24/10/16 Пнд 21:04:14  863057
>>863050
Сформулируй задачу на нормальном русском языке без нейронных сетей и сущностей. И разъясни что-за сущности требуется вычленять.
Аноним 24/10/16 Пнд 21:19:57  863080
>>863050
тебе в named entity recognition
начать можешь с классификации скользящих окон w2v исходного текста, если ограничено число классов, которые ты жочешь извлекать
Аноним 24/10/16 Пнд 22:12:20  863109
>>862975
Какие-то ебанутые вопросы в треде про машинное обучение.
Распарсил это http://www.calend.ru/holidays/russtate/ питоном в csv таблицу и прикрутил к основной таблице.
Аноним 24/10/16 Пнд 22:58:24  863139
>>859964
>>859964
магистратура же, не требуеся решать какие то супер задачи ну, нет сразу ныть начинают, наука в рашке етсь тока она финансируется хуево и не для магистрантов

мимо-нечеткий-магистрант
Аноним 25/10/16 Втр 00:43:09  863189
>>863139
> тока она финансируется хуево и не для магистрантов
С пиздатым научником и магистранту кусок пирога достанется.
Аноним 25/10/16 Втр 10:01:54  863284
>>863139
деньги пилятся, отчеты пишутся. Вот и вся наука в рф.
Аноним 25/10/16 Втр 10:14:47  863287
>>863012
Тензоры в нейроночках - это не то что нормальные тензоры в физике. Тута речь просто о матрицах размерностью больше 2. Если по нарастающей, то сначала идет скаляр (одно значение, вещественное число), затем вектор - строка или столбец вещественных чисел, затем матрица - таблица, строки или столбцы которой есть векторы, ну и потом тензоры. Самый простой вариант тензора - 3х мерная матрица, т.е. н-р есть картинка, каждый слой (R,G,B) которой представим матрицей. А все это вместе - тензор.
Аноним 25/10/16 Втр 10:28:47  863290
SUP /pr/, я тут решил вкатится в машинное обучение, сейчас читаю Бишоба и прохожу курсы на COURSERA от ВШЭ и Яндекс. Очень сложно поддаются всякие формулы и интегралы, что почитать чтоб с первого взгляда знать о чем формула и как его вывести? просто упороться в вышмат?
Аноним 25/10/16 Втр 11:07:36  863303
>>863290
> что почитать чтоб с первого взгляда знать о чем формула
> просто упороться в вышмат?
this
Но, мне кажется, что раздупление бишопа не потребует особого упарывания, с первого взгляда обычно хуй проссышь, что там тебе говорят, всё приходит с опытом.
Аноним 25/10/16 Втр 12:56:29  863321
Есть 80000 точек, размерность точки 1500. Каким образом это все кластеризовать примерно на 10 классов без байды типа out of memory?
Аноним 25/10/16 Втр 13:02:09  863324
(151Кб, 700x525)
>>863321
500мб же всего? чеши память почаще?
Аноним 25/10/16 Втр 15:16:58  863382
>>863321
Векторное квантование же любое. Те же карты Кохонена. Помоднее и для пистона - https://github.com/peterwittek/somoclu
Аноним 25/10/16 Втр 15:17:12  863383
>>863287
И что получается в итоге, результат схождения за приемлемое время можно получить только через квантовые алгоритмы? Это первое что пришло на ум, да.
Аноним 25/10/16 Втр 15:21:07  863384
>>863383
Почему? Полно нормальных алгоритмов, это только школьникам известны сверточные сети, SVM да градиентный бустинг. Ими все машинное обучение не ограничивается. Вопрос больше в том, как конкретному алгоритму подсунуть конкретную задачу.
Аноним 25/10/16 Втр 15:30:58  863390
>>863384
Мне всё кажется что только концептуальный квантовый компьютер схождение матриц на раз-два будет щелкать.
Где можно почитать про абсолютно все используемые математические алгоритмы нейросетей? Хочу построить на этой основе аппаратную реализацию. Но что-то мне кажется что такие попытки уже были и не увенчались успехом.
Аноним 25/10/16 Втр 16:09:27  863411
>>863321
Что за область? Откуда задача?
Аноним 25/10/16 Втр 16:09:51  863412
(340Кб, 1162x631)
(108Кб, 664x710)
>>863390
>Где можно почитать про абсолютно все используемые математические алгоритмы нейросетей?
Чтобы все и в одном месте, думаю нигде. Но описание бОльшей части того, что обычно называют нейроночками, из серии "это классика, блядь, это знать нада!":
http://gen.lib.rus.ec/book/index.php?md5=AE6CE64B978DCC3E4C0623C70D6D5973
http://gen.lib.rus.ec/book/index.php?md5=4F0A14A680F5B4845422E6C32D57BCDC
http://gen.lib.rus.ec/book/index.php?md5=E94FDEA71D591A5E1B0AE39E47795C03
Очень годный взгляд на нейроночки - Коско:
http://gen.lib.rus.ec/book/index.php?md5=CCC0771774E761EB91EE2019A244305B
>Хочу построить на этой основе аппаратную реализацию. Но что-то мне кажется что такие попытки уже были и не увенчались успехом.
Аппаратные реализации были, да. Даже на оптоэлектронике, с лазерами и голографией. И даже на основе осциллирующих реакций типа реакции Белоусова-Жаботинского, только с системами протеинов, что уже вообще киберпанк какой-то. Причем, еще в 80е-90е годы.
Аноним 25/10/16 Втр 16:56:37  863430
>>863412
Ох, большое спасибо, буду изучать, через недельку-две задам еще вопросов.
>Аппаратные реализации были, да.
И если общими словами, почему это всё не увенчалось значительным успехом?
Аноним 25/10/16 Втр 17:27:09  863451
>>863430
>почему это всё не увенчалось значительным успехом?
Как такового неуспеха или успеха не было, мне не известны практические применения того, что я упомянул. В литературе по нейроночкам 90-х не так редко встречаются разработки аппаратных реализаций, но дальше статей и глав в книгах дело почему-то не пошло.
Аноним 25/10/16 Втр 18:04:19  863464
>>863430
Попытаюсь рассказать с колокольни оптики.
Потому что в самом простом приближении голограммы считают просто взаимную корреляцию изображений, инвариантности к повороту и масштабу нет.
Как обучать голограмму - хуй его знает сейчас активно не слежу, мб сейчас уже что-то придумали. Если я всё правильно помню, то на них просто записывают изображения и смотрят на корреляционные отклики. Количество изображений, которые можно записать, зависит от селективности голограммы.
Голографические установки нужно юстировать, по своему опыту могу сказать, что юстировка интерферометра - полный пиздец, требущий прямых рук, иначе хуёвые результаты.
Мб ещё дополню, но это первое, что пришло на ум.
Аноним 25/10/16 Втр 18:43:30  863488
>>863451
Последние года на глаза очень часто читал различные доклады по реализациям нейростетей на FPGA и именно из-за этого заинтересовался аппаратной реализацией. Есть какая-нибудь информация по этому?
Мысль, которую хочу хотя бы на бумаге проверить - разделение функций (умножителей и сигмовидных функций без использования таблиц) сложных нейронов на отдельные аппаратные уровни. Имеет ли это право на существование?

>>863464
Мне кажется это тупиковая ветвь которая порождает огромное число зависимостей технического уровня.
Аноним 25/10/16 Втр 19:26:15  863506
>>863488
Довольно перспективно в плане быстродействия, но пока не реализуемо на адекватном уровне.
Аноним 25/10/16 Втр 21:27:30  863560
>>863488
>ПЛИСЫ и КМОП
https://scholar.google.ru/scholar?hl=ru&q=fpga+neural+network&btnG=&oq=FPGA+neu
>мемристоры
https://scholar.google.ru/scholar?q=memristor+neural+network&btnG=&hl=ru&as_sdt=0%2C5
Ну и GPU, но это мейнстрим. ну и гугли книги и статьи, по теме нейрокомпьютеры.
Аноним 25/10/16 Втр 22:27:51  863594
>>859823
scikit-image в сто раз лучше. Но не быстрее.
Аноним 25/10/16 Втр 22:33:28  863596
>>860518
Можно логистическую регрессию попробовать, она оценку вероятности класса даёт. Для SVM оценки вероятностей класса на костылях прикручены. Для деревьев и ансамблей над ними вообще не знаю как, может местные пояснят.
Аноним 25/10/16 Втр 23:06:38  863603
>>862265
В базовом варианте для каждого ID высчитывается количество транзакций по каждому mcc_code. Просто делается через unstack, а не через get_dummies
Аноним 25/10/16 Втр 23:07:49  863605
>>860518
еще инфа:
1) Блог Александра Дьяконова:
https://alexanderdyakonov.wordpress.com/2016/10/14/da..

2) Обсуждение в ODS слаке:
https://opendatascience.slack.com/messages/sberbank_c..
Регистрация в ods слак: https://docs.google.com/forms/d/e/1FAIpQLSdjQB90EdZGV..

3) Тренировки ML:
https://www.youtube.com/watch?v=2HK2XImh9hM
Аноним 25/10/16 Втр 23:08:23  863606
>>863605
сажа случайно приклеилась
Аноним 25/10/16 Втр 23:20:03  863613
Очень заинтересовали BD и ML, но, как обычно для меня, ссыкотно из-за возраста. Не поздно ли вкатываться в 20 лет? В проганье умею(в логику происходящего, нужные языки и прочие фреймворки не знаю), в математику (матан, тервер, линал, компл. ан., вот это всё) умею. Но возраст...боже, как же он жмёт.
Аноним 25/10/16 Втр 23:29:33  863624
>>863613
после 20 лет обычно и вкатываются в эту тему.
Аноним 26/10/16 Срд 10:09:15  863815
>>863613
Иди ты нахуй, возраст ему мешает. База у тебя есть, пиздуй штудировать литературу с упражнениями. Возраст ему жмёт, охуеть.
Аноним 26/10/16 Срд 10:25:34  863820
>>863624
>>863815
Без вышки по cs (учусь на инженегра) возможен вкат в нормальные конторы?
Алсо, ШАД кажется убергоднотой. Что скажете?
Аноним 26/10/16 Срд 10:34:06  863822
>>863820
Куда угодно возможен вкат с наличием адекватной базы и желанием учиться. Знакомый тимлид порой на позиции разработчиков собеседует специалистов по сверхнизким температурам.
По поводу ЩАД высказываемся в каждом треде. Приятная штука, но не стоит опускать руки, если не прошёл. Можно просто послать их нахуй.
Аноним 26/10/16 Срд 10:58:56  863838
>>863822
>>863624
Спасибо, анончики. Извиняюсь, если выбесил своим тупым вопросом, но таковы мои тараканы и ничего не могу с этим поделать.
Тогда начинаю ботать шапку + дважды попытаюсь попасть в ШАД. Если всё пройдёт так, как хочу, то попытаюсь пойти в аспу на математику у нас или зарубежом. Вероятно, что всё сотни раз поменяется, но изначально план таков.
Аноним 26/10/16 Срд 11:05:36  863848
>>863838
Попытайся свалить с трактором. Зарубежом пизже, базарю, как съебавший магистрант, успевший побыть мла.научным сотрудником в рашке.
Аноним 26/10/16 Срд 11:13:16  863851
>>863848
Знаю, что лучше, но трактор кажется мне очень далёкой возможностью, которая пока мельтешит где-то на горизонте.
Аноним 26/10/16 Срд 15:55:38  863934
>>863613
Вкатываться, конечно, можно, но результаты будут соответствующие, если ты не какой-то гений (тогда бы ты здесь не спрашивал). Тут как и в профессиональном спорте: теоретически ты можешь начать заниматься каким-нибудь плаванием в 20 лет, но надо понимать что на олимпиаду ты вряд ли попадешь, а реалистично смотря на вещи тебе очень повезет, если ты вообще сможешь получить хоть какой-нибудь разряд. Ну "для себя" можешь научиться норм плавать.
Аноним 26/10/16 Срд 16:07:28  863940
>>863934
Чего ты гонишь? Среднеслесарем вполне можно стать и после двадцати, имея среднюю техническую базу.
Аноним 26/10/16 Срд 16:09:57  863942
>>863940
Кого вы понимаете под "слесарем"? мимоанон
Аноним 26/10/16 Срд 16:12:45  863944
>>863940
Может, на уровне HTML-программиста, хорошо если освоившего StackOverflow-driven development. Чтобы понимать суть происходящего в этой области и хотя бы успевать следить за прогрессом, нужно (было) этим жить последние пять лет.
Аноним 26/10/16 Срд 16:54:16  863993
(22Кб, 480x257)
Нейронач, думаю попытаться вкатиться хотя бы чуть-чуть в нейроносети.
Идея следующая.
Я хочу сделать онлайн игру, где игроки дерутся с боссом.
После битвы с боссом, нужно будет регистрировать полностью историю боя с боссом.
И в зависимости от этого в будущем перестраивать алгоритм поведения босса, чтобы его победить стало еще сложнее.
Знаю только шарпы. На других ЯП не писал, с тех пор как окончил шарагу местный универ.
Соответственно, юниксы, линукс и прочие ОС не трогал. Не думаю, что это так важно.
Хотелось бы также на шарпе писать. Скорость выполнения не так важна, пусть хоть сутки анализирует, похуй.

Так вот, как считаете, реально ли такое сделать. И если да, т о с чего начать. Если нет, то почему.
Аноним 26/10/16 Срд 17:20:16  864012
>>863993
Reinforcement Learning.
Начать с того же, с чего начинают и другие - шапка треда. А можешь попытаться взять с наскоку какой-нибудь курс по RL вбей в тытрубе RL David Silver

Почему к тебе отнесутся скептически.
1. Будь у тебя хотя бы какой-нибудь навык в ML, ты бы не задал этот вопрос.
2. Сделать это, не имея бэкграунда, сложно. Читай, как пойти в вузик на программиста, чтобы клепать игры. Большинство таких воннаби-клепальщиков потом идут в 1С и прочие области, не связанные с гейдевом.
3. Сделать это, не имея адекватного финансирования сложно/дорого/займёт дохуя времени. Почему?
a. Рейды сложные, множество игроков используют разные абилки. Рейды могут варьироватья по составу. Придётся учить босса учить, кто такие хилы/мдд/рдд/танки.
b. С точки зрения MDP наблюдения имеют нехуёвую такую размерность - кто чего кастует, сколько дамага нанёс, расположение и прочее. На обучение будет уходить реально большое количество вычислительных ресурсов, а обучать ты хочешь не одного босса в одной инсте, наверное.
c. В большинстве, знакомых мне ММО, обучение босса дало бы непроходимых боссов. Просто дай боссу возможность игнорировать аггро, и он расхуярит хилла и весь рейд за ним. То есть нужно думать, как вписать это всё в концепцию аггро.

Резюмируя, идея охуительно интересная, но дорогая и требует хорошей тимы, которая знает своё дело.
Аноним 26/10/16 Срд 17:25:01  864019
>>863993
Алсо, тебе все компании отсосут, если ты запилишь это на каком-нибудь интересном уровне в одиночку.
Аноним 26/10/16 Срд 17:28:31  864023
>>864012
>вписать это всё в концепцию аггро.
>концепцию аггро.
Параша для школодебилов не нужна.
Аноним 26/10/16 Срд 17:30:25  864026
>>864023
Кудахтающие дебилы без пояснений своего кудахтания не нужны.
Аноним 26/10/16 Срд 17:33:30  864028
>>864026
>Кудах
>кудах
А вот и оскорбленный за любимую днотку школодебил, хаха.
Аноним 26/10/16 Срд 17:45:50  864045
>>864028
Давай, расскажи мне, какие ммо были лучше WoW десять лет назад?
Аноним 26/10/16 Срд 17:48:47  864047
>>864045
>лучше WoW
Любые.
Аноним 26/10/16 Срд 18:34:13  864069
Учил некоторое время работу нейросети, какие бывают нейроны, как они записываются, что делают, сколько их куда надо вставлять, как находить ошибку, как брать градиент. В общем до метода обратного поиска ошибки доучился.
Захожу на каггле ком. Там прохожу вступительную обучалку, сортирую данные, заполняю отсутствующие, в общем очень интересно. Потом перелистываю страницу, где уже должно быть само по себе машинное обучение и вижу:
import randomforest
randomforest.fit
randomforest.predict
Всё, ответ готов. Так и должно быть? Я не очень понимаю, что тогда делают кодеры
Аноним 26/10/16 Срд 18:38:50  864073
>>864069
Собирают данные [опционально], чистят данные, визуализируют данные, подбирают алгоритмы анализа, советуются с людьми по поводу фичей, пробуют, тестируют, дрочат на митингах, общаются с коллегами, хуйнянейм с особенностью конторы. Уйму разных вещей делают.
Аноним 26/10/16 Срд 18:41:12  864075
>>864073
Мне как-то не верится, что сами нейронные сети они не делают.
Почистить и визуализировать данные сможет человек который неделю назад научился писать на PHP
Аноним 26/10/16 Срд 18:45:27  864077
>>864075
> что сами нейронные сети они не делают
> подбирают алгоритмы анализа

> Почистить и визуализировать данные сможет человек который неделю назад научился писать на PHP
Хуй там, не всегда, всё зависит от данных.
Аноним 26/10/16 Срд 18:50:48  864083
>>864077
А что собственно такое этот подбор алгоритма анализа? Я понимаю в обычной сети это выбрать, сколько будет слоёв, сколько будет нейронов в каждом слое, какие функции будут у нейронов. А если этим не заниматься, то остаётся выбрать между рандомфорестом и ещё несколькими алгоритмами что-ли?
Аноним 26/10/16 Срд 18:52:41  864085
>>863934
Толстовато. Зачем тогда яндексу делать свою школу? Она для гениев, 14летних школьников или средних спецов.
Аноним 26/10/16 Срд 18:54:26  864087
>>864083
https://www.google.sk/search?q=machine+learning+algorithm+cheat+sheet
Кликни на картинки
Аноним 26/10/16 Срд 20:37:05  864152
>>864012
спасибо.
да я уже работаю в не связанной с геймдевом областиёбаные винформсы с впфом.
на счет аггро с тобой согласен полностью.
на счет того писать ли игру с нуля, на что уже уйде год минимум, или взять готовую - на сколько я знаю, любой васян может поставить у себя сервер всеми нами любимого вов. и я также видел, что люди создавали на своих серверах своих боссов, где "прописывали" ему поведение.

так что я пойду штудировать шапку сперва по твоему совету.
Аноним 26/10/16 Срд 21:32:24  864182
>>864152
> так что я пойду штудировать шапку сперва по твоему совету.
Штудирование шапки может занять год, лол. На курс Сильвера то хотя бы одним глазком глянь, промотай его, вдруг дохуя знакомых вещей увидишь.
Совет вреден тем, что в шапке рассматривают в основном задачи регрессии и классификации, по RL там не очень много.
Можешь глянуть в эту книгу:
http://people.inf.elte.hu/lorincz/Files/RL_2006/SuttonBook.pdf
Сам не читал, мб параша, хуй знает. Мб анончики что-нибудь по теме расскажут.
Аноним 26/10/16 Срд 21:36:58  864185
russian pepe.png (243Кб, 900x1200)
>>864182
>Introduction
>334 страницы
мимокрокодил
Аноним 26/10/16 Срд 21:39:21  864188
14657987015993.png (340Кб, 801x801)
>>864185
Хуле делать, так и живём.
Аноним 26/10/16 Срд 22:20:14  864227
Аноны, посоветуйте алгоритм. Есть куча болезней с симптомами. Как автоматом составить дерево вопросов по симптомам, чтобы максимально быстро определить болезнь?
Аноним 26/10/16 Срд 22:24:12  864233
>>864227
Хуй знает по поводу дерева, но можешь погуглить QMR-DT.
Аноним 26/10/16 Срд 22:43:23  864250
>>864227
from sklearn import DecisionTree
Аноним 27/10/16 Чтв 07:50:37  864351
14766867370480.png (766Кб, 540x484)
Пацантре. Есть годные и простые способы улучшить knn? Ключевое слово тут это простые. Без всяких локальных топологий.
Данные нормализовал, метрику выбрал. Даст че нибудь выкидывание выбросов в чужие кластера, если у меня K=10.
Аноним 27/10/16 Чтв 07:54:36  864354
>>864351
У тебя high bias или high variance?
Аноним 27/10/16 Чтв 08:34:37  864366
>>864354
Это надо посчитать, а у меня слишком большая выборка и слишком слабый пе-ка.
А чем кстати плох high bias? Вроде заебись же. Ошибка на тесте, близка на обучении.

Но вообще, процентов 90, что у меня именно high bias. Но если не трудно, накидай советов по тому и тому:3

Только простеньких, так как мне надо будет все писать руками
Аноним 27/10/16 Чтв 09:05:07  864370
>>864366
>А чем кстати плох high bias?
Тем, что величина ошибки не соответствует твоим требованиям. То есть алгоритм в целом отработал хорошо, но недостаточно для тебя, поэтому следует менять сам алгоритм - или набор фич (другую метрику), или же сменить простой knn на что-то другое.
Параметрически у knn все просто, меняешь k, меняешь баланс в bias/vaiance tradeoff. Если у тебя k строго 10, тебе это не подходит.

>Но если не трудно, накидай советов по тому и тому:3
Советов в интернете тонны и это самая азбука ML, это знать надо.

High bias: как я писал, это алгоритм хуево работает, и менять надо алгоритм, как полностью, так и увеличивать число фич. Underfitting.
High variance: алгоритм переобучается, и нужно или больше данных, или добавить регуляризацию, или уменьшитьчисло фич. Overfitting.
Аноним 27/10/16 Чтв 10:06:44  864391
Хочу попробовать сделать копию приложения Prism, в какую сторону смотреть? Да, я знаю что призма не использует нейросети, но все таки, где вообще можно почитать про практическое применение нейронок? В тех же мобильных приложениях. Из навыков, умею в разработку для iOS, хочу сделать вундервафлю с нейросетями.
Аноним 27/10/16 Чтв 10:16:29  864397
>>864391
git clone https://github.com/jcjohnson/neural-style
Аноним 27/10/16 Чтв 10:34:15  864408
>>864370
Спасибо! Очень понятно объяснил.
Число соседей менять можно, оптимальное у меня получилось 10. Но, скажем так если я выбираю 3 соседей я угадываю в 88 процентах случаев, а с 10 в 90 процентов случаев.
Метрики многие пробовал. Хорошо себя показал Жокар. Может есть в нетике йоба список метрик, а то я не нашел.
Аноним 27/10/16 Чтв 11:10:45  864421
>>864085
Она для тех, кто уже довольно глубоко в теме, на что недвусмысленно намекает нехилый вступительный экзамен. Рандомный хрен, вчера "решивший вкатиться", не сможет туда поступить.
Аноним 27/10/16 Чтв 11:15:40  864424
>>864421
Ну это не объясняет, почему вкатываться в 20 поздно. Можно за год-два полностью подготовиться к их экзу.
Аноним 27/10/16 Чтв 11:28:50  864430
>>856234 (OP)
Ребят если я начну вкат с machine learning a probabilistic perspective, буду ли я писать, что-то годное к след году?
Аноним 27/10/16 Чтв 11:32:27  864432
>>864421
>Она для тех, кто уже довольно глубоко в теме, на что недвусмысленно намекает нехилый вступительный экзамен.
Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза. Теорвер проходится на третьем курсе, как раз 20 лет.

Рандомный хрен туда не сможет поступить, потому что планка намеренно задрана, а не потому что там такая охуенно сложная программа. Это традиционная наебка "элитных учебных заведений", в которой учат так же хуево, как и везде, но за счет отбора поступающих якобы формируются неебовые успехи, которые объясняются именно качеством преподавания.
Иными словами, у тех, кто способен поступить, и так в жизни проблем с трудоустройством не будет.
Аноним 27/10/16 Чтв 11:42:35  864436
Да вы совсем поехали. Какая разница, в каком возрасте начинать? До 20 лет - это какой-то местный мемас?
Аноним 27/10/16 Чтв 11:45:08  864438
>>864436
Думаю 18-ти летние школьники траллят.
Аноним 27/10/16 Чтв 11:51:38  864443
Если ты к 20 все еще не определившийся олух, пытающийся куда-то "вкатиться" не имея о теме представления, то результат этих попыток очевиден заранее. Так и вижу как этот вася, знающий "матан" на уровне "ну там чет про производные)", без образования и интересов, даже не умеющий элементарно кодить, усаживается штудировать Бишопа и МакКея. Да он не то что введение, он аннотацию не осилит. Скажет "да ну нах эту дрочь для батанов)) 300 страниц формул, вы там офигели совсем)))" И будет прав
Аноним 27/10/16 Чтв 12:01:11  864451
>>864443
Не думаю, что такие люди полезут в эту тему.
Аноним 27/10/16 Чтв 12:03:45  864455
>>864443
>Если ты к 20 все еще не определившийся олух, пытающийся куда-то "вкатиться" не имея о теме представления, то результат этих попыток очевиден заранее.
Вижу тупорылого юнца с таким же максимализмом.
Аноним 27/10/16 Чтв 12:20:18  864468
FWWwilhelm2.jpg (29Кб, 283x413)
правильный вопрос не "вкачусь ли до 20" а "доживу ли до 25"
Аноним 27/10/16 Чтв 12:23:19  864470
>>864468
То чувство, когда тебе 18, вкатываешься, а у тебя рак сердца.
Аноним 27/10/16 Чтв 12:34:02  864474
>>864436
Ну вкатился ты такой в 25, а у тебя начальнику 21. И ты для него говно, никто, червь.
Аноним 27/10/16 Чтв 12:45:40  864476
>>864474
Так тебе ML чтобы на дядю работать? Ну тогда страдай, да.
Аноним 27/10/16 Чтв 12:48:45  864477
>>864476
А тебе зачем? Оптимизировать рецепт мамкиного борща?
Аноним 27/10/16 Чтв 12:51:31  864479
Screenshot27.jpg (46Кб, 581x268)
Кароче. Поступить тяжело, учиться тяжело.
Начинают с основ, но резко углубляются.
Если ты раньше с этим не сталкивался, совмещать с работой практически невозможно.
Так что если планируете, запаситесь свободным временем. В этом плане 20 летним корзинам легко.
Ну и пруфы на пике
Аноним 27/10/16 Чтв 12:52:15  864481
>>864477
Я бы мог сказать, что эта область имеет гораздо больше применений, чем очевидную возможность продать свою жопу дяде занидорага, да чувствую, что бесполезно. Впрочем, в тех рамках, что ML обсуждают ИТТ, наверное другие применения и невозможны.
Аноним 27/10/16 Чтв 12:57:04  864483
>>864474
Тупорылый проецирует. Нахуя идти работать к ебаным аутистам, для которых коллеги - никто? Такие фирмы - говно с хуевой атмосферой и долго не живут.
Аноним 27/10/16 Чтв 13:01:40  864486
>>864481
Очередной НеНадоРаботатьНаДядю. На тренинг не опаздываешь?
Аноним 27/10/16 Чтв 13:06:36  864488
>>864486
Дурик, чтобы работать на дядю, ML не нужно. Освой лучше станки с ЧПУ в любой шараге, бесплатно. К 20 годам зарплата будет намного больше, чем если освоишь машинное обучение.
Аноним 27/10/16 Чтв 13:09:25  864489
>>864483
А ты контингент в /pr/ видел? Презрение на презрении, ненависть на ненависти. Вот она, наша сфера, вот она!
Аноним 27/10/16 Чтв 13:10:51  864490
>>864481
"Вкат" это значит попасть на работу в данной сфере, желательно с неплохим окладом. Я для себя и приложеньице могу на андроид наклепать, и сайтик, но сказать что я вкатился в Андроид-дев или Веб-дев я не могу.
Аноним 27/10/16 Чтв 13:13:10  864491
>>864488
Окстись, маня, у ЧПУшника потолок тыщ 60, умные прогеры с этого начинают.
Аноним 27/10/16 Чтв 13:14:55  864492
>>864488
Хм, а если мне нравится ml? Если я хочу заниматься научной деятельностью в составе какой либо команды? А не только мутить лавеху? К такому повороту твои подростковые мозги небыли готовы?
Аноним 27/10/16 Чтв 13:15:50  864494
>>864491
Это со столетним опытом разве что. Стекломойные иваны и за двадцатку рады "работать", см. воркач.
Аноним 27/10/16 Чтв 13:16:21  864495
>>864432
Ты пишешь это разными словами каждый тред. Предлагаю уже добавить это в шапку.
Аноним 27/10/16 Чтв 13:16:26  864496
>>864492
Наука без денег не делается, браток. Пройдет хайп по МЛ, перестанут гранты давать - и не будет тебе никакой МЛ-науки.
Аноним 27/10/16 Чтв 13:18:09  864499
>>864492
За научной деятельнстью сразу ПхД, вокзал, Европа (или штаты). Самому с книжкой аутировать бесполезно, и никакие ШАДы тоже не помогут.
Аноним 27/10/16 Чтв 13:21:29  864503
>>864492
Приходишь ты такой к профессору, глаза горят, идей вагон, а на выходе - "где статья, сука, норматив по статьям надо, статьи статьи статьи список литературы в 150 позиций давай отфлюродросим всем импакт фактор гранты-хуянты"
Аноним 27/10/16 Чтв 13:22:19  864504
>>864489
Большая часть доски ищет работу в МЫ-ВАМ-ПЕРЕЗВОНИМ-ТРЕДЕ.
Аноним 27/10/16 Чтв 13:26:20  864507
>>864503
В МЛ сейчас модно, молодежно публиковаться в arXiv потому что вчерашние кодерки ниасиливают написать нормальную статью в журнал
Аноним 27/10/16 Чтв 13:27:14  864509
>>864496
Так и есть. Да такой сценарий возможен. Но если мы прям минимизируем риски, то тогда только в аграрный поступать или на врача, жрать и болеть люди не перестанут никогда.
>>864499
Ну надо же с чего начинать. Шад петухи кстати регулярно публикуются.
>>864503
Ну минусы есть везде. Тут ты прав. Другое дело, что лично для меня, плюсов всеравно больше.
Аноним 27/10/16 Чтв 13:28:37  864511
>>864507
>публиковаться в arXiv
Иииииу... Нерецензируемые статьи... Даже хабра лучше.
Аноним 27/10/16 Чтв 13:30:14  864512
>>864511
Не, хабра не лучше, в архиве нужна рекомендация же. Но все равно говна через край.
Аноним 27/10/16 Чтв 13:33:06  864515
>>864495
Я это пишу разным людям, которые уверены, что ШАД это какая-то йоба, которая сделает из них людей, стоит туда только попасть.
В шапку, хуй знает, там сидит statistical learning дрочерство, которое я презираю.
>>864511
Вообще-то система arxiv+github+конференции - это самое охуенное, что случалось в ML за последние тысячу лет. Пока статистикопетушки ждут рецензии и публикации статьи (не публикую код, а то хули, спиздят же), deep learning бояре сегодня публикуют на архиве, завтра по всему миру их код на гитхабе ковырают сотни людей. Отсюда такая лавина исследований. Но хули, не модно же, давайте нам рецензируемые журналы, ведь без рецензента нельзя понять, какой процент ошибок на training и validation сетах у алгоритма.
Аноним 27/10/16 Чтв 13:33:42  864516
>>864512
А на хабре инвайт надо, или чтоб мод в песочнице увидел и вознёс. Плюс на хабре рейтинг будет видно, социум порешает, дичь опубликовали или нет.

Сразу контраргумент против "Хабра
это стадо быдла, а наука нет": В науке если ты делаешь что-то не в тренде, ты никто, над тобой все будут ржать (пока не окажется что ты там что-то сносное открыл в итоге), там такое же стадо.
Аноним 27/10/16 Чтв 13:44:42  864523
>>864516
>Плюс на хабре рейтинг будет видно, социум порешает, дичь опубликовали или нет.
Какой нахуй социум, там активно голосующих человек 100, и все поголовно пидарасы и долбоебы. Лучше просто на гитхабе выложить код, в readme.md закинуть идею, и на реддите в machinelearning забросить ссылку. Без инвайтов, да.
Аноним 27/10/16 Чтв 13:54:19  864537
>>863605
>Регистрация в ods слак:
Ссылка битая.
Аноним 27/10/16 Чтв 13:59:13  864545
>>864515
meh...
Согласен, код надо публиковать. Когда писали статью с науч.руком, я хотел выложить код в открытый доступ, но он запретил.
Вообще, работая со статистикой не леарнинг, я заметил, что обычно удаётся воспроизвести результаты только каждой пятой статьи. И мы не одни такие, проблема распространённая.
Аноним 27/10/16 Чтв 14:05:39  864550
>>864545
Это не проблема, для тех, "где статья, сука, норматив по статьям надо, статьи статьи статьи список литературы в 150 позиций давай отфлюродросим всем импакт фактор гранты-хуянты". Это суть работы, пилить без последствий.
Но благо, сейчас за дело взялись корпорации, которым вместо абстрактной науки нужны реальные результаты, с бабками.
Аноним 27/10/16 Чтв 16:47:15  864665
>>864474
лол ты где начальников 21 лвла видел маня?
виталика-педалика не упоминай даже, он папин аутист-программист один на миллиард
Аноним 27/10/16 Чтв 17:13:53  864681
>>864665
В модном стартапе, приехал такой в 21 с бородищей на гироборде и поясняет за МашОб.
Аноним 27/10/16 Чтв 17:16:31  864684
>>864681
Использует базворды, не способен пояснить за затухающие градиенты в RNN, от просьбы попробовать применить chain rule к производным начинает потеть и заикаться.
Аноним 27/10/16 Чтв 18:24:43  864719
>>864515
Просто ты, как и многие другие ничего не смыслящие в науке кадры, не понимаешь что такое пир ревью. Почему в прикладной математике непросто написать хорошую статью? Потому что надо показать значимость и новизну своей работы. Вся МЛная "лавина исследований" на самом деле гроша ломаного не стоит, потому что "я взял модель из [1], добавил еще 10 слоев и уменьшил ошибку на CIFAR на 0.00000001% по ставнению с SOTA" это не наука, а просто дрочильня ниочем.
Аноним 27/10/16 Чтв 19:18:52  864799
>>864432
опишу свой ШАД-икспиренс из далёкого года
знать надо нихуя примерно, СЛУ руками по гауссу 3его порядка и цепочечное правило (о существовании которого я тогда не подозревал) - максимум матана. половина задач чисто школьные.
на устном собеседовании было немного посерьёзнее правда.
а вот учили вполне жёстко. в универе (не самая шарага) я не испытывал никаких проблем с матаном, но на тамошних лекциях по теорверу Ширяева просто охуевал. сидящие рядом девочки с мехмата правда вроде не особо напрягались, хз.
лекции по мл червоненкинса были норм по сложности, но в домашке были жёсткие подьёбы навроде неразделимых классов в задаче где предполагалась голая свм.
на теории игр от буниной все расслаблялись - уровень был просто школьный.
> в жизни проблем с трудоустройством не будет.
сижу без работы 3 года, не берут даже веб-макакой. все хр-бляди должны здохнуть.
Аноним 27/10/16 Чтв 20:42:58  864854
apu kysymys.png (29Кб, 741x568)
Никто не хочет конфочку в телеграмме создать? Задачки порешаем.
Очевидно что самое дно набирать не нужно. Готов пройти собеседование, ну или провести.
коммитер в scikit-learn
Аноним 27/10/16 Чтв 20:46:06  864859
>>864854
Идею поддержу, но не более. Задач выше крышы, я скоро свихнусь от этого дерьма.
Аноним 27/10/16 Чтв 22:25:32  864907
>>856234 (OP)
поясните нюфагу за вторую картинку
чоза икс-омега, нифига не понял
>>864854
>телеграмме
нынче матрикс же доделали: riot.im
Аноним 28/10/16 Птн 12:39:10  865085
>>864430
да, конечно
Аноним 28/10/16 Птн 14:13:55  865125
>>864719
Ты же знаешь, что такое arxiv.org? Это препринт сервер, туда кидают статьи, чтоб их сразу читали, пока ревьювятся в журнал. Если какой-то васян закинул туда свою статью, его все равно дальше абстракта никто читать будет. Читают людей с именами, имена получаются через конференции. Все стоящие ученые кидают свои статьи на архив. Архив.орг как бе не отменяет традиционные журналы.
Аноним 28/10/16 Птн 15:35:47  865181
>>865125
Я имел в виду тех, кто только в архив кидает. Хотя и на конференциях средний уровень не оче, а журналов мало.
В чем по сути заключается "лавина исследований"? Несколько тысяч человек за три года затерли то дыр 3.5 датасета с картинками, вот и вся эта лавина. По-настоящему инновационных статей совсем мало, в основном от дипмайнда, да и то по большей части чисто инженерная работа по доведению до ума предыдущих идей, например альфаго. Причем дипмайнд все свои норм работы в нейчер шлет, а не на архив.
Аноним 28/10/16 Птн 15:58:42  865199
Пишу алгоритм для игры. В ней нужно набрать максимум очков. Их количество не может уменьшаться. Есть фактор случайности. игра похожа на монополию и количество возможных исходов одного хода меньше чем у шахмат При этом игра может закончиться совсем неожиданно если неколько ходов подряд кубик будет плохо падать. Значит обычный minmax не подойдёт т.к. при большой глубине поиска лучший из худших всегда будет проигрыш. И что делать с линией горизонта? Ведь здесь нельзя форсировать поиск при шахе как в махматах. Реквестирую литературу про программирование ии для игр с влиянием рандома.
Аноним 28/10/16 Птн 16:02:20  865203
>>865199
См. работы по нардам. Гугли TD-Gammon.
Аноним 28/10/16 Птн 16:08:03  865208
>>865203
Блять. Ещё и правила нард учить. Ок. Спасибо. Сегодня поищу.
Аноним 28/10/16 Птн 16:34:13  865242
download.gif (1995Кб, 418x419)
https://medium.com/@daniel.mallcott/how-not-to-approach-machine-learning-641d38cf7f30#.u0x8oske3

> Видя, что машинное обучение это все в моде сейчас я решил несколько месяцев назад, чтобы перейти в шумиха поезд и посмотреть, где что взял меня. Но вскоре я обнаружил, что это не было похоже на изучение нового рамки JS или следующий магическое решение CI, но больше как целый новый мир головных болей и возможностей, которые сделали бы меня заново оценить, как я подходить к решению проблем все вместе.

> Как разработчик, обнаруживая, сколько абстрактное мышление и статистика происходит в ML был как можно ближе к пощечине, как он получает, но, как кто-то, кто не знает, когда остановиться, я продолжал достижения этой цели шахты.

> Машинное обучение походит на лицейного секса. Все говорят, что они делают это, на самом деле никто не делает, и никто не знает, что это на самом деле

люблю когда высокомерный буржуа немного обкакунькался
Аноним 28/10/16 Птн 18:01:05  865317
Репостну вам. Такая тема, нужно автоматически распознавать автоматически сгенерированные тексты а-ля копатель, хотя еще не ясно. Собственно, больше мне нихуя не известно.
Ну, сначала хочу изучить проблему, попутно читая гугл уже, не особо успехи, но может вы сразу определите мои подводные камни? Как и что делать, с чего начать?
Аноним 28/10/16 Птн 20:14:51  865357
Господа, а есть какой-то источник инфы о новых методах в ML, но чтоб с инженерной точки зрения? Статьи читать надоедает, тонна ненужной воды налито + результаты хрен воспроизведёшь, потому-что пример реализации не приведён. Почитал статью и как потратил время зря, потому-что в итоге вроде всё понял, но как автор писал реализацию / какие гиперпараметры - не ясно.
Аноним 28/10/16 Птн 23:12:02  865432
>>865317
было на реддите неделю назад
https://www.reddit.com/r/LanguageTechnology/comments/570da2/any_ideas_on_how_to_go_about_programmatically/

Если нейроночки, то ворд2век плюс лстм, а так, как на реддите написали, всяких n-gram и марковых цепей хватит
Аноним 29/10/16 Суб 10:01:24  865596
>>865432
Ок, благодарю. А вообще, на сколько это трудоемкая задача? А то это курсовая как бы.
Аноним 29/10/16 Суб 11:56:46  865631
>>864719
>Почему в прикладной математике непросто написать хорошую статью? Потому что надо показать значимость и новизну своей работы.
Ну кому ты пиздишь. 99% шлака без новизны везде, и в журналах, и в препринтах. Разница в том, что виде препринта шлак отсеивает компьютнити за день, а в журналах этот шлак публикуется и навешивает лычки на автора, от которого зависят его бабки. Поэтому именно для журналов пишут одну и ту же идею по 10 раз, и прочитал одну статью автора - прочитал все (как минимум, на ближайшие несколько лет). И весь этот кайф еще и денег стоит.

>Вся МЛная "лавина исследований" на самом деле гроша ломаного не стоит
Да, да, именно поэтому statistical learning побеждает слесарей на kaggle, а на его базе делают стартапы, а задача классификации приблизилась к мозгу. Потому что так анон сказал.
На самом деле нет.
Нейроночки сейчас превращаются в науку типа химии, когда изначальная физическая база поменяется своими законами, которые более удобно использовать конкретным образом. То, что это аутистам-математикам не нравятся, так пусть идут они нахуй дрочить свою теорию струн.

>это не наука, а просто дрочильня ниочем.
Угу. Вот тебе пример дрочильни:
>Не имея лаборатории и работая в помещении институтской кладовки, а позже в сарае на улице Ломон в Париже, с 1898 по 1902 годы супруги Кюри переработали восемь тонн уранинита.

Вот тупые-то.

Это и есть наука. Исследовал, проверил, поделился (с обязательным воспроизведением). Шлак получился - ну это тоже результат, на то она и наука, что иногда нужно и 8 тонн говна переработать. Но шлак тоже стоит опубликовать, чтобы другие не тратили время на то же самое.

А статьи в журналах, в которых специально создают недомолвки, чтобы потом подороже продать свои идеи, и конечно же без кода, вот это не наука, а меркантильное дерьмо, которое мы и наблюдаем по $30 за статью, а также глядя на успехи "математиков" в задачах.

>>865181
>В чем по сути заключается "лавина исследований"? Несколько тысяч человек за три года затерли то дыр 3.5 датасета с картинками, вот и вся эта лавина.
Бредятина. Ты описываешь только одну конкретную задачи классификации, которая действительно уперлась в поток за последние годы, но только потому, что за 2010-2015 она взлетела в небеса. Для residual сетей по сути imagenet'а недостаточно. При этом датасеты просто служат для повторяемости измерений, а у тебя звучит так, что дело в том, что исследования специально подкручивают под датасет.

Но задач-то дохуя, от близких к классификации image2vec, до генерации изображений, super resolution, удалением шума, и кучи другой хуйни. И это только изображения, есть еще анализ текстов, звуков, и такая же их генерация. И везде охуенные результаты.
Из последнего, быдло увидело рисование хуев на картинках, но на деле это основано на открытии охуенного метода генерации изборажений.

> По-настоящему инновационных статей совсем мало, в основном от дипмайнда
Да ты жертва пиара просто. От гугла собственно научной инновационности не так много, в основном я вижу оверинжиниринг уже существующих идей, которые ты как раз не любишь. Сравнить, например VGG-19 и Inception. Первая - красота вообще, а вторая - ну так, оптимизация вычислений. И что на слуху у быдла типа тебя? Швитой гугл конечно же.

Вот я открою ща arxiv-sanity и перечислю, что там было.
Бинаризация сетей (когда веса сводятся к -1 и 1 и это работает) да и вообще в целом способы сократить потребление ресурсов, residual сети (и их сведение к RNN сетям) - охуенно, batch normalization, style transfer в рилтайме, DCGAN. Почти все 2015-й год. В 16-м еще кучу всего охуенного завезли.
Аноним 29/10/16 Суб 13:31:19  865685
>>865596
тот метод с реддита по частям речи тоже звучит ок, его тоже можешь посмотреть.
Зависит от того, насколько у тебя хорошие данные, сколько их у тебя, насколько хорошо знаешь питон и тд и тп.

Сложность варьируется от import tensorflow за две минуты до месяцев красноглазия в попытках набрать 64 процента точности.

Но я у мамки слесарь, поэтому послушай пацанов поумнее, мб, кто-то что-то еще посоветует
Аноним 29/10/16 Суб 15:10:47  865726
>>865685
Пока ничего нет, питон видел пару раз. Изложу свои мысли преподу, а там посмотрим. Проблема в том, что она может загнать меня в самые ебеня, и потом придется все разгребать, либо наоборот ничего дельного не скажет, что более вероятно. Так что буду доебываться до людей на двачах и во всяких конфочках, вот.
Аноним 29/10/16 Суб 15:17:05  865729
Антоши, поясните, что значит слесарь?
Мимопроходил и заинтересовался.
Аноним 29/10/16 Суб 15:29:54  865731
>>865357
>Почитал статью и как потратил время зря, потому-что в итоге вроде всё понял, но как автор писал реализацию / какие гиперпараметры - не ясно.
Не трать вермя на статьи без кода вообще, полно хороших статей с кодом. Если лень гуглить, вообще можешь читать только один gitxiv.
Но если ты будешь смотреть только код, ты поймешь еще меньше. Просто с опытом ты начнешь отделять воду, которая кочует из статьи в статью, от сути, которая часто сводится к нескольким абзацам концентрированного текста.
Аноним 29/10/16 Суб 15:48:13  865745
https://arxiv.org/pdf/1609.04802v2.pdf

Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network

Ну блядь, вообще застой в индустрии.
Аноним 29/10/16 Суб 23:35:40  866026
>>865631
>residual сети (и их сведение к RNN сетям)

Вот про такую хуйню не знал. Как они сводятся-то?
Аноним 30/10/16 Вск 07:10:37  866108
res.png (22Кб, 671x355)
res2.png (208Кб, 1065x892)
>>866026
Довольно очевидным образом. Это ответ, почему мозг не deep, а работает на уровне ResNet с 1000 слоев.

https://arxiv.org/pdf/1604.03640v1.pdf
Аноним 30/10/16 Вск 10:42:32  866147
>>866108
Можно для быдлана расшифровать последнее? Аж интересно стало.
Аноним 30/10/16 Вск 11:02:16  866154
>>866147
Визуальная кора является deep in time, имея небольшое число физических слоев, эмулируется больше число слоев за счет обратной связи. Или наоборот, ResNet эмулирует мозг, разворачивая RNN в пирог из 1000 слоев - это как тебе удобнее. Открытие охуенное, потому что становится понятнее, как мы устроены, и это все - сегодняший день.
Аноним 30/10/16 Вск 11:08:24  866158
>>865729
Это все мы тут. Не слесари сами разрабатывают методы.
Аноним 30/10/16 Вск 20:57:34  866526
>>866108
Охуенчик. Бочку нефти тебе, анон.
Аноним 31/10/16 Пнд 01:11:38  866680
>>866154
Я нихуя не понял.

Что надо прочитать, чтобы иметь возможность хотя бы генерировать респонс "вау, охуеть, вот это круто!" на подобные посты?
Аноним 31/10/16 Пнд 01:52:08  866709
>>866154
>Визуальная кора является deep in time, имея небольшое число физических слоев
>это все - сегодняший день.
ну плиз
сто лет назад это выяснили
Аноним 31/10/16 Пнд 07:22:44  866779
>>866709
Ты и ILSVRC-2017 уже давно победил. Нахуй иди.
Аноним 31/10/16 Пнд 11:36:47  866892
>>866779
Новый положняк. У кого на Kaggle рейтинг ниже 20 - чуханы-чуханчики, меняйте профессию пока не поздно.
Аноним 31/10/16 Пнд 12:23:51  866963
>>866680
Надо следить за state-of-art решениями начиная с AlexNet и понимать, в чем заключается их новизна. Тогда реакция "вау, круто" была бы сначала на ResNet, а потом вот на это объяснение, почему оно работает. Вот почитай.
https://adeshpande3.github.io/adeshpande3.github.io/The-9-Deep-Learning-Papers-You-Need-To-Know-About.html
Аноним 31/10/16 Пнд 12:41:51  866979
>>866892
Но кегля - это лишь зачет для слесарей.
>>866680
Оппост и дальше быть в струе на реддите. Только на определенном уровне просветления ты поймешь, что это не так уж и круто и по большей части просто очередной кодерский манямирок, наподобие того как в 60х думали, что создав шахматную программу мы поймем, как мыслит человек.
Аноним 31/10/16 Пнд 13:15:07  867017
>>866979
>Только на определенном уровне просветления ты поймешь
А потом пойдешь хлебать мамкин борщ. Ты своим пафосом напоминаешь любителей хаскеля, у которых тоже какие-то невнятные понты при полном отсутствии успехов.
Читайте оппост, пацаны, будете такими же, воможно, даже вас возьмут в банк классифицировать заемщиков.
Аноним 31/10/16 Пнд 13:46:49  867034
>>866963
>>866979
Ок, спасибо! Только один вопрос: мне правда необходимо прочитать всю литературу из оп-поста и те щевять пейперов, чтобы было ваукруто? А есть какой-нибудь софт-вей?

Если что, я не хочу в банк и не собираюсь никого классифицировать.
Аноним 31/10/16 Пнд 13:52:23  867040
>>867017
Где у меня пафос? Пафос это когда вчерашний кодер от сохи прочитал про слои и решил, что теперь он знает, как работает мозг. А это не пафос, а трезвая оценка состояния дел в науке, и это не я придумал, естественно, а светила сами так говорят. См., например, выступления ЛеКуна (жаль, он книгу не напишет по этой теме).
Аноним 31/10/16 Пнд 14:16:19  867061
>>867034
Собственно в той литературе ничего про диип лернинг нет, но она задает необходимый бэкграунд и настроение ума. Так что это только начало, дальше ты сам должен понять, что нужно читать и почему.
Аноним 31/10/16 Пнд 14:18:25  867063
>>867034
Если не хочешь идти в банк и никого классифицировать, не читай книги из оппоста, потому что там научат тебя именно этому.
Аноним 31/10/16 Пнд 16:38:55  867148
>>867061
Ну пиздец просто!

>>867063
А что тогда читать?
Аноним 31/10/16 Пнд 16:40:33  867151
>>867148
> А что тогда читать?
А чего ты хочешь? Некоторые и от книг Донцовой ловят ваукруто, и им норм.
Аноним 31/10/16 Пнд 16:42:47  867154
>>867151
Ты еще пердеж собственный не начал нюхать, как герои сауспарка?
Аноним 31/10/16 Пнд 16:44:29  867156
>>867154
Нет, а ты?
Аноним 31/10/16 Пнд 22:12:34  867401
Посоны, я нашёл тест на слесаря. Просто идёшь читать про алгоритмическую терию информации. С огромной вероятностью слесарь дропнет ещё до случайности по Мартину-Лёфу. Я дропнул.
Аноним 01/11/16 Втр 01:38:21  867510
>>867401
Ну и ладушки. Тебе же в шашечки или ехать?
Аноним 01/11/16 Втр 10:14:42  867634
>>867510
Лолшто?
Аноним 01/11/16 Втр 12:33:05  867686
>>867401
Прочел Ли и Витани от корки до корки. ИМХО это одно из самых "недооцененных" достижений математики: немногие знают эту теорию, а ведь она затрагивает широчайший спектр областей, от философии науки до машинного обучения. Книга серьезно повлияла на мое мировоззрение.
Аноним 01/11/16 Втр 13:08:32  867708
>>867034

Софт-вей, это http://cs231n.github.io/ плюс руками пишешь свою нейроночку, потом читаешь про recurrent neural networks, потом про residual neural networks, потом читаешь ту статью, которую запостил анон и говоришь ВАУ. На все, про все у тебя уйдет от двух недель до месяца.
Аноним 01/11/16 Втр 13:21:31  867718
Бугурт статистикодрочеров напоминает бугурт усатых телемастеров, когда на смену логике на транзисторах пришли микроконтроллеры.

Так и тут, статистикодрочеры годами изучают мат. модели, которые с трудом вмещаются в голову, а потом нейроночка за день (в редких случаях за месяц) строит более эффективную модель. И тут начинается МИКРОКОНТРОЛЛЕРЫ НЕЙРОНОЧКИ НЕ ТРУЪ, ДИДЫ СЧИТАЛИ НА БУМАЖКЕ И МЫ ДОЛЖНЫ, KAGGLE ДЛЯ СЛЕСАРЕЙ.
Аноним 01/11/16 Втр 13:42:56  867732
>>867718
Но кегля действительно для слесарей, собственно они этого и не скрывают. Никто не делает исследований на кегле.
Если ты не умеешь считать на бумажке, то ты не понимаешь и нейроночек, а просто как вебмакака копируешь примеры из интернета. То есть ты почти бесполезен, испортить тензорфлоу эс тф можно научить любого за короткий срок. В чем тогда твоя ценность как специалиста, подумой.
Аноним 01/11/16 Втр 13:51:40  867740
Нейроначи, есть несколько абсолютно нубских вопросов.
Вот, скажем, захотел я сделать нейросеть для игры в крестики-нолики и заставить ее играть против классического алгоритма, способного если не выиграть, то сыграть партию вничью. Цель — научить нейросеть не проигрывать хотя бы в 75% сыгранных партий. С чего вообще нужно начинать? Как выбрать нужную архитектуру? Как объяснить нейросети правила игры, например то, что нельзя ходить в уже занятую клетку поля?
Аноним 01/11/16 Втр 14:22:27  867762
>>867740
https://www.google.no/search?q=tic+tac+toe+neural+network
Аноним 01/11/16 Втр 14:41:25  867782
>>867740
слишком хуита, очень маленькое пространсво состояний, тривиально перебирается
можно сделоть примерно любым алгоритмом, даже самым бредовым
придумай обобщение крестиков-ноликов на непрерывное пространство хотя бы
Аноним 01/11/16 Втр 14:50:35  867786
>>867732
Но ведь я понимаю нейроночки и не копирую из интернета.
Аноним 01/11/16 Втр 14:53:15  867789
>>867708
Спасибо.
Аноним 01/11/16 Втр 15:09:42  867798
Для игры в крестики-нолики можно сделать механический компьютер на спичечных коробках: http://www.mscroggs.co.uk/blog/19
Аноним 01/11/16 Втр 16:00:09  867817
>>867786
Ладно тогда.
Аноним 01/11/16 Втр 18:01:52  867921
>>867718
Сложные модели это не очень у них слишком высока ёмкость, + сложные модели не интерпретируемы.

Где-то было про Abbyy и про то как они не используют ничего сложного в своих OCR, ибо важна очевидность модели.
Аноним 01/11/16 Втр 18:07:45  867923
Посоны, посоны. Вот допустим градиентный спуск: для поиска минимума функции f с помошью градиентного спуска основываются на первой производной f'.

А также распространён способ когда ищут минимум исходной функции f поиском нуля её производной (С помошью гессиана f'').

Никогда вторым способом не пользовался. Почему есть смысл считать/оценивать приблизительно вторую производную (гессиан) для решения той же задачи? Не вижу профитов.
Аноним 01/11/16 Втр 18:15:22  867934
>>867923
Читай про методы оптимизации. Там десятки методов, первого и второго порядка. Последние лет 60 это активно разрабатывалось все.
Аноним 01/11/16 Втр 18:19:21  867938
>>867923
все методы ищут ноль производной
Аноним 01/11/16 Втр 19:10:41  867994
>>867921
Телемастер как есть. Нейросеточки не интерпретируемы, поэтому нужно как деды делать то, что в узкий мозг телемастера влезает.
Аноним 01/11/16 Втр 19:46:33  868008
>>867686
Можно полное название книги?
Аноним 01/11/16 Втр 19:54:34  868011
>>868008
An introduction to Kolmogorov complexity and its applications
Аноним 01/11/16 Втр 20:24:33  868031
>>868011
Уже нашел, спасибо.
Аноним 02/11/16 Срд 04:21:56  868208
>>867994
А теперь прикинь, продал ты свой продукт богатому дяде. Дядя приходит и "Чет хуйню выдавать начал, почини!" а ты "А я блин не знаю как оно работает!". Это я про ABBYY.
Аноним 03/11/16 Чтв 10:06:37  868951
>>868208
А ты включаешь в тренировочный датасет случай, на котором начало хуйню выдавать и его аналоги. И говоришь богатому дядьке "с вас 1.5kk за сопровождение".
Аноним 03/11/16 Чтв 11:01:30  868969
>>868208
ABBYY как раз и есть пример старперов, у которых все хорошо и бизнес налажен, и ничего менять не хочется. Это называется луддизм.
Аноним 03/11/16 Чтв 16:35:16  869138
>>867401
>>867686
Там про что? Конструктивный/интуиционистский подход к вероятности штоле? Неужели. Еще немного и додумаются до конструктивного изложения нечетких множеств.
Аноним 03/11/16 Чтв 16:44:20  869143
>>869138
Там про определение сложности объекта, и определение количества информации как величину сложности описания объекта. Эти же понятия можно использовать для определения алгоритмической вероятности, которая даёт универсальные приоры. На базе этого можно построить универсальный алгоритмический интеллект.
Беда теории в вычислимости даже самых базовых вещей, из-за чего она кажется очень непрактичной. Но сама по себе она очень интересна.
inb4: игра в бисер, нинужна, сложна
Аноним 03/11/16 Чтв 16:48:11  869145
>>869143
>определение количества информации как величину сложности описания объекта.
Есть жи энтропия Шеннона.
Аноним 03/11/16 Чтв 16:59:04  869149
>>869143
Алсо, это где-то реализовано для анализа данных? Вот это оно или нет - https://cran.r-project.org/web/packages/acss/acss.pdf http://complexitycalculator.com/methodology.html
Аноним 03/11/16 Чтв 17:06:43  869151
>>869145
Которая есть усреднённая Колмогоровская сложность.
Здесь взгляд с другой стороны. Колмогоровская сложность рассматривает возможные программы и возможные опорные машины, на которых эти программы работают.

>>869149
Колмогоровская сложность невычислима. Обычно к алгоритмической теории информации обращаются, когда рассказывают про принцип минимальной длины описания, BIC и связанные с этим практические вещи.
По ссылке что-то похожее на аппроксимации.
Можешь погуглить аппроксимации AIXI.
Аноним 03/11/16 Чтв 17:24:17  869161
>>869151
>аппроксимации AIXI.
Для R нету. Но вот это жи http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0096223 тоже аппроксимация колмогоровской сложности?
>Которая есть усреднённая Колмогоровская сложность.
Но если это типа шенноновской энтропии, то с чисто практической точки зрения, намного ли лучше эта ваша аппроксимация колмогоровской сложности? Т.е. есть ли заметный выигрыш при анализе данных, или просто разница в доли процента?
Аноним 03/11/16 Чтв 17:28:28  869166
>>869161
У тебя реально слесарский подход к делу. Никто не использует колмогоровскую сложность в анализе данных, это теоретический инструмент.
Аноним 03/11/16 Чтв 17:33:09  869170
>>869166
>Никто не использует колмогоровскую сложность в анализе данных, это теоретический инструмент.
Но я ж дал ссылку на пакет для R. Как раз для анализа данных. И что плохого в практическом применении алгоритмов? Они для этого и нужны, чтобы давать практическую пользу.
Аноним 03/11/16 Чтв 17:35:30  869172
>>869170
Да это так, игрушка, не знаю даже для чего. Оно считает, во-первых, аппроксимацию, которая не имеет никакого особого смысла, а во-вторых только для очень коротких строк (8 бит или около того).
Аноним 03/11/16 Чтв 17:39:31  869175
>>869161
Как заметил >>869166 эта штука пока только теоретический инструмент. На него ты можешь ссылаться, если используешь MDL или RMDL.

Аноним 03/11/16 Чтв 17:43:58  869179
>>869175
Ну т.е. пока не нужно.
Аноним 03/11/16 Чтв 17:55:33  869184
>>869179
Можешь загонять это чикулям из технических шараг и ебать их в грязных толчках тех же шараг, это работает.
Аноним 03/11/16 Чтв 19:59:36  869242
>>856234 (OP)
Что ISLR выпили из шапки?
Аноним 03/11/16 Чтв 21:15:08  869305
>>869242
?
Аноним 03/11/16 Чтв 21:18:27  869310
>>869242
Есть же шестое издание.
Аноним 03/11/16 Чтв 21:23:56  869318
>>869305
>>869310
Бля, я слепой. Увидел уже.
Аноним 06/11/16 Вск 01:51:17  870650
>>863613
> Не поздно ли вкатываться в 20 лет?
Проиграл дичайше. Ты думаешь нужно с 10 лет этим заниматься?
Аноним 06/11/16 Вск 01:56:16  870653
>>864370
> High bias: как я писал, это алгоритм хуево работает, и менять надо алгоритм, как полностью, так и увеличивать число фич. Underfitting.
> High variance: алгоритм переобучается, и нужно или больше данных, или добавить регуляризацию, или уменьшитьчисло фич. Overfitting.


Все так, только
High bias:Overfitting.
High variance:Underfitting.
А не наоборот
Аноним 06/11/16 Вск 01:57:20  870654
>>864455
> Вижу тупорылого юнца с таким же максимализмом.
Очень редкий вид на дваче.
Аноним 06/11/16 Вск 03:01:19  870672
>>870653
Ну хуй знает. Both high bias and high variance are negative properties for types of models. When we have a model with high bias, we say it “underfits” the data, and if we have a model with high variance and low bias, we say it “overfits” the data. We’ll see why in this section.
Аноним 06/11/16 Вск 13:51:46  870801
BiasVariance.jpg (68Кб, 531x450)
>>870672
На самом деле прямой связи между биасами и фитами нет, т.к. хай и лоу биас и вариэнс бывают в любых комбинациях.
Аноним 06/11/16 Вск 19:13:46  871012
Хочу управлять фильтрами свертночной нейросети с помощью другой нейросети. Т.е. если у нас есть сверточный слой выход = conv(вход, X), я хочу, чтобы X поступал с какой-то другой сети.
Как водится, скорее всего моя охуительная идея кем-то реализована. Подскажите кейворды для поиска статей.
Аноним 06/11/16 Вск 19:23:20  871019
>>871012
Не очень тебя понял, но по ссылке что-то похожее
http://blog.otoro.net/2016/09/28/hyper-networks/
Аноним 06/11/16 Вск 19:45:19  871033
>>871019
Спасибо огромное, то, что нужно.
Аноним 06/11/16 Вск 20:20:24  871062
Сори, если нубский вопрос.
Суть такова: у меня есть некоторые сущности(к примеры цифры), и есть выборка, где каждой сущности сопоставлен вектор тегов. Мне нужно выяснить какие теги с какими сущностями чаще всего встречаются.
Самое простое, что мне сразу же пришло в голову, это присваивать каждому встреченному тегу вес(1), умножать его на некоторый коэффициент(m) при повторном появлении такого тега, и вычитать из веса некоторую константу(a), если при очередном элементе выборки тега не присутствует.
Что то мне подсказывает, что это ну очень наивный подход. Подскажите пожалуйста названий алгоритмов или тем, которые позволят решить задачу. Или ткните в книгу из шапки, которую стоит открыть в первую очередь. Спасибо.
Аноним 06/11/16 Вск 20:32:15  871073
>>871062
Зачем вычитать? Ты же просто гистограмму строишь.
Тебе сейчас векторное квантование наверное посоветуют.
Аноним 06/11/16 Вск 20:35:55  871077
>>871062
Можешь в сторону matrix factorization глянуть.
Аноним 06/11/16 Вск 20:38:56  871079
>>871073
Мне нужно сравнивать потом веса тегов у разных сущностей.
Т.е. если
тег "a" встречается с числом "1" 4 раза из 8, а
тег "b" встречается с числом "2" 2 раза из 4, то
вес тегов примерно должен быть равен. Я могу конечно просто вычислять процент того, как часто встречается этот тег, но на больших выборках это будет неудобно. Нужно хранить много доп данных, и непонятно как ограничивать множество тегов, связанных с одной сущностью.
Аноним 07/11/16 Пнд 01:08:55  871274
>>856234 (OP)
Сука, у меня сейчас бомбанет. Как в этом ебаном R сделать список изображений из пакета imager?
Циклический data = c(data, load.image(img_path))
где img_path вычисляется заранее по счётчику цикла, не работает. data в итоге хранит набор ебаных цифр. Я пытался что-то сделать через imlist, но там вообще нихуя не понятно. Хелп.
Аноним 07/11/16 Пнд 12:29:32  871421
>>871274
>обработка картинок
>R
Аноним 07/11/16 Пнд 12:46:26  871426
sc2.jpg (936Кб, 2000x1334)
google-deepmind[...].png (623Кб, 1024x512)
Ахаха, диипмайнд, что ты делаешь, прекрати. Собираются победить старкрафт. Интересно будет посмотреть. Наверняка у них получится, скорее всего они уже сделали преварительные тесты и получили хорошие результаты, иначе бы не объявляли с таким апломбом.
Однако на этот раз, видимо, не из исходных пикселей информацию вытаскивают. Там слои миникарты предполагаются с различными данными, видимо это то, что они уже используют в своей системе.
Аноним 07/11/16 Пнд 12:47:46  871428
>>871426
Так есть уже статьи по старику. Вечером закину в тредик.
Аноним 07/11/16 Пнд 13:17:00  871456
>>871428
Конечно, есть. Как и по го были сотни, если не тысячи работ. Однако в старкрафт текущие системы играют гораздо хуже, чем даже в го раньше играли - ты бы мог их победить особо не напрягаясь.
Аноним 07/11/16 Пнд 13:30:39  871467
>>871421
Ну у меня машинлёрнинг построен на пикчах. Что плохого-то, если есть инструменты?
Аноним 07/11/16 Пнд 14:01:05  871485
>>871467
>машинлёрнинг
>R
Аноним 07/11/16 Пнд 14:06:24  871490
>>871485
>>871421
Даун тупой, как будто ты знаешь как это сделать на пистоне или что там сейчас у школуйни модно.
Аноним 07/11/16 Пнд 14:11:51  871492
>>871467
>>871485
Поясни, чё ты как.
Алсо, я нашел хак, написал функцию, возвращающую функцию. Но у меня не получается её вызывать, сука.

>>871490
Это не я
Аноним 07/11/16 Пнд 14:27:51  871497
>>871490
> Даун тупой
О - попёрла натура... Там два анона, я подхватил. Если бы ты занимался machine learning (который требует big data) ты бы знал, что R просто не тянет. Это как бы пакет для статистического анализа.
Аноним 07/11/16 Пнд 14:33:33  871499
Слесари, как из теста вытащить место?
>Зашел на Двач ты, хочешь советов мудрых, сосни-ка хуйца.
Надо получить "Двач"
>Пошел на хуй, пошел на хуй, пошел на хуй пидарас!
Надо получить ["хуй", "хуй", "хуй"]
Чем обмазываться? Место может быть и составным.
Аноним 07/11/16 Пнд 14:43:38  871503
>>871499
Словарь возможных мест составь и ищи по нему. Если тебе прям универсальный хардкорный алгоритм нужен, гугли name entity recognition. Для русского языка наверняка ничего нет, придется делать самому - пару человеколет закладывай.
Аноним 07/11/16 Пнд 15:05:19  871512
>>871503
Спасибо, нашел что нужно. Хорошо, что я не с русским языком работаю.
Какие все таки дата сцаентисты лентяи. Где моя кнопка "сделать заебись"?
Аноним 07/11/16 Пнд 15:25:55  871525
Раз уж мы теперь на мейл.ру сидим.
Начался бета-тест russian ai cup 2016, в этом году игра наподобие доты или лола, в каждой игре участвует 10 ботов, можно передавать друг другу сообщения, прокачиваться. Круто в общем.
http://russianaicup.ru/
Аноним 07/11/16 Пнд 17:14:35  871608
>>871497
>machine learning (который требует big data)
>R просто не тянет.
>Даун тупой
А я в очередной раз не ошибся с оценкой. Впрочем, на мейлру-то не удивительно.
Аноним 07/11/16 Пнд 17:16:20  871610
>>871525
Ставлю десятку, что кто-нибудь обучит нейроночку, которая и победит.
Аноним 07/11/16 Пнд 17:21:56  871614
>>871467
На тех же крестах, матлабах и пиздоны инструменты лучше.

>>871525
Интересно, кто находит время для подобных соревнований?

>>871610
Все опять будут пробовать Q-learning, и 90% этих людей обосрутся.
Аноним 07/11/16 Пнд 18:08:06  871635
>>871614
>Интересно, кто находит время для подобных соревнований?
Успешные хикки вроде меня.
>Все опять будут пробовать Q-learning, и 90% этих людей обосрутся.
В прошлый раз я пробовал и обосрался. Но в целом там мало кто использует столь продвинутые методы, времени слишком мало для разработки, тренировки, и в рантайме мало ресурсов (тензорфлоу на видюхе нипаганять). Обычно задроченный эвристический поиск побеждает. Описания стратегий-победителей прошлых лет можно найти в сети.
Аноним 07/11/16 Пнд 19:53:24  871690
Чем отличается ML от Deep learning
Аноним 07/11/16 Пнд 20:46:15  871731
>>871690
МЛ это обучение машин, роботов там всяких, ИИ, а дип лернинг это более углубленное, продвинутое обучение, картинки всякие, ну хз короче.
Аноним 07/11/16 Пнд 21:14:53  871750
>>871731
Так дело в том, что ИИ и ML это тоже немного разные вещи)))
Аноним 07/11/16 Пнд 21:43:45  871771
>>871690
Deep Machine Learning = Machine Learning + Neural Networks
Аноним 07/11/16 Пнд 22:08:29  871804
>>871771
Тогда уж Convolutional Neural Networks
Нейронки сами по себе это уже МЛ. А дип - куча сверточных слоев.
Аноним 07/11/16 Пнд 22:43:24  871843
>>871608
Когда обкакаешься, вспоминай меня.
Аноним 07/11/16 Пнд 22:57:45  871857
>>871525
Очевидно, что возьмут за основу готового бота из дотана. Это путь к победе. А свои разработки обосрутся
Аноним 07/11/16 Пнд 23:58:57  871935
Аноны, а как называется процесс обучения нейроночки, чтобы она могла играть в видеоигру? Reinforcement learning или ещё что то есть?
Аноним 08/11/16 Втр 00:01:04  871937
>>871935
Это не процесс обучения, это направление в машинном обучение. Но копать в ту сторону, да.
Аноним 08/11/16 Втр 12:58:22  872146
alisher-usmanov.jpg (18Кб, 460x287)
>>871525
Попробовал запилить простейшую стратегию. Ну там и гемор. Столько всего надо учитывать, если нормально делать. На месяц работы чтобы сделать бота, который более-менее нормально ориентируется в тактике и простейшей стратегии. А еще надо кооперацию рассматривать, сообщениями обмениваться, билды оценивать. Кароч на те сроки, какие есть, только башню из костылей можно построить.
Аноним 09/11/16 Срд 07:35:32  872648
>>871525
Надо нейроночку, и обучать на корейцах.
Аноним 09/11/16 Срд 11:40:33  872711
>>871690
Deep learning - одно из направлений в ML. Отличительная особенность - использование т.н. глубоких архитектур, т.е. последовательно состыкованных и обучаемых особым образом элементарных алгоритмов типа машин Больцмана, аутоэнкодеров, сверточных сетей и т.п. Предыдущие ораторы >>871731>>871771 обосрались с простейшим вопросом. Что и не удивительно для школьников с мейлру.
Аноним 09/11/16 Срд 13:19:46  872757
>>872648
Кто о чем а вшивый о бане. Там 10мс одного ядра на ход, и на каких корейцах ты собрался обучать, если правила отличаются?
Аноним 09/11/16 Срд 15:00:31  872818
>>872757
двачую анона, там ни библиотек, ничего нет, даже нампи нет. Кроме того, большое преимущество у тех, кто знает джаву. Каждый год джависты разбирают трейнер, который дается, и делают на его основе себе обучалку. Хотя это очень весело, веселее, чем кэггл.
Аноним 09/11/16 Срд 16:30:15  872894
Подходят ли функциональные языки программирования для глубинного обучения?
Аноним 09/11/16 Срд 17:21:44  872961
>>872894
Что есть "глубинное обучение" в твоем понимании?
Аноним 09/11/16 Срд 21:26:56  873132
>>872961
Что - то прорывное и будоражаще новое, что - то что я не знаю, как и ФП.
Аноним 09/11/16 Срд 23:09:40  873219
>>873132
Видеокарточки уже закупил?

>>872818
Т.е. там даже NumPy нельзя? Перемножение матриц, Холекцого и другой элементарный линал мне самому надо будет кодить, если я сунусь туда?
Аноним 10/11/16 Чтв 00:28:17  873267
>>873219
ну, обучаться у себя будешь с библиотеками, а на боевом сервере ничего нет
Аноним 12/11/16 Суб 18:51:00  874657
ну что, ананасы, кто из вас выиграл сбербанк? получили награждение от грефа?
Аноним 12/11/16 Суб 19:03:58  874669
>>874657
А кто-нибудь вообще участвовал?
Аноним 12/11/16 Суб 22:28:09  874864
>>872711
машин Больцмана
их кстати в реальных задачах сейчас кто то использует ?
Аноним 12/11/16 Суб 22:36:24  874869
>>874864
А вот хуй знает. Не знаю как местные, а я с MCMC никогда нормально работать не мог и отношусь к нему достаточно скептически. Знаю, что ЛеКун со всех этих Deep Больцманов тоже не в восторге.
Аноним 13/11/16 Вск 10:42:26  875049
>>874864
Вряд ли, как и аутоэнкодеры. Но, именно с них пошел сам термин "диплернинг". Просто сейчас любой школотрон уверен, что диплернинг это только сверточные сети, даже сам термин объяснить мало кто в состоянии. Про неокогнитроны вообще никто не слышал.
Аноним 14/11/16 Пнд 09:34:43  875420
>>875049
А почему автоэнкодеры больше не используются? Чем заменили?
Аноним 15/11/16 Втр 21:53:51  876350
>>875420
Да пользуют их, те же VAE в гипернеты пихают. Другое дело, что это всё в продакшн вроде бы не пихают.
Аноним 16/11/16 Срд 13:39:53  876622
Я дебил и не понимаю, что такое нейрон. Почему все так скрывают, что он делает и представляют его, как черную коробку? Можете мне написать маняпример на Си типа хеллоуворлда. Мол есть массив-черная картинка пусть даже с котиком ахахаха. 1 - черное, 0 - белое. И как нам распознать нос? И зачем тут нейросеть ваще? По хардкору поясните, дабы даже такой дибил как я понял
Аноним 16/11/16 Срд 14:43:03  876654
>>876622
гс, ну как бы носы бывают разные: разных размеров,форм, цветов, сопливые и в сметане, фото может быть сделано с разных ракурсов, разного освещения и четкости. теперь представь хотя бы на высоком уровне экспрешн, который бы мог вернуть тебе элементарно наличие носа а картинке?
нейросеть, в глобальном смысле, сопоставляет входящую картинку с набором каких-то своих паттернов, развитых во время своего обучения, и выдает тебе вероятность наличия носа на картинке
Аноним 16/11/16 Срд 14:55:27  876658
Есть ли какое-то ПО для моделирование нейронных сетей? Грубо говоря, мышкой кликать.
Аноним 16/11/16 Срд 15:05:38  876663
>>876622
На твоем уровне развития невозможно достигнуть сколько-нибудь детального понимания. Медитируй над фразой "нейроночка - массив".
Аноним 16/11/16 Срд 15:43:48  876674
>>876663
покажи пример, пожалуйста,
Аноним 16/11/16 Срд 16:02:25  876682
Правда ли, что нейронные сети полны по Тьюрингу и поддерживают даже сверхтьюринговые вычисления? Значит ли это, что я могу замкнуться в себе, запустить бубунту и создавать ИИ в своем мозгу, а потом просто переписать? И чем это грозит?
Аноним 16/11/16 Срд 16:34:53  876691
>>876658
http://neuroph.sourceforge.net/
>>876682
>Правда ли, что нейронные сети полны по Тьюрингу
Да, они же могут по датасету восстановить (аппроксимировать) любые вычислимые функции.
>сверхтьюринговые вычисления
Сказка жи. Сам Тьюринг эту хуйню придумал просто для иллюстрации, что даже такой метод не снимает проблемы невычислимых функций. Его "Оракул" в данном случае чисто сказочный персонаж.
>Значит ли это, что я могу замкнуться в себе, запустить бубунту и создавать ИИ в своем мозгу, а потом просто переписать?
Это как?
Аноним 16/11/16 Срд 17:38:38  876731
>>876622
Нейрон: выход = вход * вес.
Дальше сам.
Аноним 16/11/16 Срд 23:55:38  876954
>>876350
рекомендашки на автоэнкодерах/ворд2век есть
Аноним 17/11/16 Чтв 04:36:02  877046
http://pjreddie.com/static/Redmon%20Resume.pdf
Аноним 17/11/16 Чтв 08:39:11  877069
Нихуя не понял, как вкатиться? Охуенно, я выбрал себе задачу - то же распознавание капчи. Но есть хоть какие-то примеры, как ее решать, чтоб уже понимать, что блять из всего обилия инфы читать?
Аноним 17/11/16 Чтв 12:20:16  877144
>>877069
распознавание капчи, думаю, уже решено, и распознается лучше, чем человеком.
Аноним 17/11/16 Чтв 12:27:47  877148
>>877069
вдогонку, заходишь на google scholar, вбиваешь captcha recognition, смотришь статьи, но распознавание капчи особо не отличается от всех остальных распознавалок текста
Аноним 17/11/16 Чтв 13:06:05  877172
>>877069
Вкатиться невозможно. К тому же ты, скорее всего, слишком стар уже для этого.
Аноним 17/11/16 Чтв 13:32:22  877196
Чуваки, учусь на первом курсе, тут такое дело: нужно подготовить какой-нибудь интересный проект для выступления на конкурсе, как думаете, нейронная сеть подойдет для такого или есть что-нибудь интереснее?
Аноним 17/11/16 Чтв 14:13:20  877216
>>877196
Попробуй применить differentiable neural computer в обучении с подкреплением.
Аноним 17/11/16 Чтв 14:15:29  877217
>>871525
Уже под тысячу человек участвует. Этот конкурс по популярности на уровне CodinGame и кегли, что довольно круто.
Аноним 17/11/16 Чтв 21:02:52  877513
>>856234 (OP)
Привет, машобач. Повторяю то, что писал в ньюфаготреде (проигнорили).
Нужно тему на курсач по веб-кодингу. Требуют запилить что-то с новизной. Как ты догадываешься, я бы очень хотел присунуть туда машинлёрнинг. Поделитесь идеями, плиз. Желательно что-нибудь несложное.

Пока что подумываю над сайтом-фотохранлищем. Как новизну добавлю разные фичи поиска похожих пикч. Хуй знает, короче. Хочу что-нибудь интересное. Плиз, хелп.
Аноним 17/11/16 Чтв 21:41:41  877540
>>877217
только на кегли приз 20000 уе (налоги и тд, плюс команда). А тут схожая конкуренция, а в приз АЙПАД И ФУТБОЛКА.
Аноним 17/11/16 Чтв 23:08:31  877599
neuroshit.png (32Кб, 1048x530)
О, тот самый тред. Привет, я только начал смотреть что да как, и сразу же нихуя не понял, проблему усугубляет невозможность читать чужой код (сам пытаюсь для начала запилить свой небольшой алгоритм на бумаге на самом деле в ue4 блюпринтами). Статьи которые я читал, постоянно повторяют "сеть обучается", "сеть запоминает", "сеть решает", но не понимаю, как это выглядит в числах.

1. Что такое функция активации и какая подойдет для моей задачи?
2. Как менять силу изменения веса между нейронами?



Вот сама задача:

Персонаж стоит около пяти кнопок. Когда активируется одна кнопка персонаж должен набежать на нее, после чего открывается соответствующая ей дверь. Персонаж бежит к двери. То есть, должен принять два решения на два действия. Сколько нужно слоев нейронов? Сколько их самих? Сколько выходов должно быть? Как поощрять персонажа? Какие величины вписывать в переменные? Есть ли примеры похожих задач?
Аноним 17/11/16 Чтв 23:23:39  877606
>>877599
Нахера в твоей задачи нейронка вообще?
Аноним 17/11/16 Чтв 23:28:54  877612
>>877599
И еще. Так как кнопка включается рандомно, я запилил входные данные как одна включенная кнопка это 0.5, а нерабочие - 0.1. Это норм?
>>877606
Задача направлена на попытку понимания и визуализацию, я хочу посмотреть, как это работает.
Аноним 17/11/16 Чтв 23:41:13  877623
>>877612
Лучше порешай стандартные задачи, типа линейной регрессии (нахождение зависимости между переменными) и задачу классификации, именно в них кроется сама суть того, что делают нейронки и другие алгоритмы машинного обучения.
Аноним 17/11/16 Чтв 23:50:32  877627
>>877623
Ну блин, я хочу заниматься именно в этом направлении, вон как те дяди, учившие роботов проходить лабиринты, или видеорелейтед и вот это всё в этом духе.

https://www.youtube.com/watch?v=qv6UVOQ0F44
Аноним 18/11/16 Птн 00:21:51  877643
>>877627
Ну вон там код есть, кури его.
Кури генетические алгоритмы, в видео основной смысл в нем.
Нейроны там тупо для активации кнопок нужны, они не обучаются, веса в них зависят от гена.
Там используется сигмоидальная активация, но она там нахуй не нужна, линейной хватит или даже тупо пороговой.
Аноним 18/11/16 Птн 00:43:50  877657
>>877513
Если у тебя есть титанчик под рукой - реально круто было бы сделать поиск картинок.
Делаешь TripletNet с VGG/ResNet/Inception/чтотамещеестьнаимеджнете, доучиваешь передний слой делать евклидовы эмбеддинги, дальше кнном ищещь похожие. Даже работать будет достаточно неплохо почти гарантированно (в файндфейсе очень похожая схема внтури), пишется на керасе за 20 минут с отладкой.
Аноним 18/11/16 Птн 09:51:46  877731
>>877172
>>877144
Дельные советы, что и говорить
Аноним 18/11/16 Птн 13:18:27  877793
>>877731
Эти два поста совершенно правы (применительно к тебе). Но твой уровень развития не позволяет (и, возможно, никогда не позволит) этого увидеть. Ты как муравей, карабкающийся на Эверест. Профессиональные альпинисты, пробегающие мимо, говорят тебе: "ты умрешь, поворачивай обратно", но муравью не дано понять человеческую речь или увидеть гору самому.
Аноним 18/11/16 Птн 13:25:18  877796
>>877540
Дык, рашкинские нищуки же. Справедливости ради, на кегле задачи несопоставимо сложнее, и уровень участников гораздо выше. Там очень крутые челы, а на этих программерских соревнованиях в основном студенты. И времени на кегле намного больше дается.

Главный приз там - макбук про, это три годовые зарплаты среднего ивана, а уж про студней и говорить нечего. Для Северной Нигерии вполне себе призы.
Аноним 18/11/16 Птн 15:05:01  877824
>>877796
тут другая область и другие знания требуются, если на кээгле очень важно найти факапы разработчиков датасета, то тут желательно уметь программировать, разобрать джава-пакеты разработчиков, написать на их основе свой симулятор и тд, обычно выигрывают те, кто умеет это делать.
Аноним 18/11/16 Птн 15:09:05  877825
Посоны, я так и не понял почему в примере с Teano со сверточной сетью не происходит переобучение, хотя там проходят по одной и той же обучающей выборке по десятку раз. У меня на моей тестовой так не получается, сеть всегда приспосабливается к обучающей и начинает плохо распознавать тестовую.
Аноним 18/11/16 Птн 15:24:25  877832
>>877825
>на моей тестовой
ну, которую я сам писал на c++
Аноним 18/11/16 Птн 16:50:20  877872
>>877825
Или проще говоря, после каждой эпохи сет приспосабливается к обучающей выборке, но тестовая распознается все хуже и хуже.
Аноним 18/11/16 Птн 18:42:23  877924
>>877643
Вообще у меня вся задача сводилась к таблице где x - вход, y z - выходы и

x---y---z
1---1---1
3---3---3
4---4---4
2---2---2

но ладно
Аноним 19/11/16 Суб 17:36:20  878352
>>877793
Думаю, ты идешь нахуй, ибо делать выводы о совершенно незнакомом человеке основываясь непонятно на чем может только полный мудак.

Я задал вопрос, как начать изучать эту тему, ввиду того, что в ОП-посте сказано "решайте задачу" - как решать, что гуглить, малопонятно.
Аноним 19/11/16 Суб 22:13:30  878529
Почему еще нет ИИ? Какие проблемы в этом направлении сейчас?
Аноним 19/11/16 Суб 22:37:07  878539
>>877825
>>877832
Бамп вопросу.
Аноним 19/11/16 Суб 23:30:56  878566
>>878529
нет никакого ии
Аноним 20/11/16 Вск 00:37:39  878598
>>878529
Дай определение ии. Какие есть предпосылки к тому, что он должен появиться? Люди не очень понимают, как просто мозг работает. Нейроночки - довольно далекая вещь от реального мозга, это просто математическая модель с модным названием.
>>878539
я гуманитарий, но нужно дропаут добавлять, чтоб не было переобучения. Ну, и слишком много зависит от твоего кода. Там может быть банальный баг и тд и тп.
Аноним 20/11/16 Вск 02:24:58  878651
>>878598
>но нужно дропаут добавлять
А он точно в теано по-умолчанию уже есть? Я от себя там никаких алгоритмов не добавлял. Брал обычный пример на сайте диплернинка с мнист базой который.
Аноним 20/11/16 Вск 11:53:06  878729
>>877825
Да там куча всего может быть. Может функции различаются, может оптимизаторы разные, где-то мб момент используется (который, кстати, в некотором роде спасает от попадания в локальный минимум), какие-то параметры различаются и прочее.
Аноним 20/11/16 Вск 17:24:45  878914
>>878598
В моем понимании ИИ это модульная система, которая рационально понимает когда использовать тот или иной модуль, и при этом может замещать их и комбинировать, при этом имея возможность строить новые модули при помощи обучения. Модули это своеобразные ментальные модели, но при этом модули могут представлять и данные, и программу вообще другого толка. Почти как в лиспе.
Аноним 20/11/16 Вск 20:39:51  879146
>>878729
Хотя может потому, что я тестировал на полносвязной сети.
Аноним 20/11/16 Вск 21:22:12  879173
>>879146
А нет, я потом и на сверточной проверил. Результат тот же.
Аноним 21/11/16 Пнд 05:55:31  879400
Есть литература для самых маленьких с примерами кода? (желательно плюсы)
Посмотрел шапку, только саенс, хочется чтобы книга была построена по принципу.
1)теория
2)пример
3)задание
или как-то так, кароче говоря классическая книжка для изучения для ньюфань.
Аноним 21/11/16 Пнд 05:55:55  879401
упс, сега
Аноним 21/11/16 Пнд 05:59:53  879402
>>877825
очередной платиновый вопрос в стиле high variance, что делать
Whitening данных сделать не забыл?
Аноним 21/11/16 Пнд 19:07:35  879716
>>879400
Для слесарей онлайн курсы есть.
>>877825
В примере теано таких проблем нет хотя бы потому, что они используют early stopping. А вообще это классика: у тебя модель наверняка слишком большая для твоего датасета.
Аноним 21/11/16 Пнд 20:04:40  879764
>>856648
Блядь, такими методами, по-твоему, не пытались решить эту задачу? Одним из парадоксов робототехники является то, что сложнейшие для человека когнитивные навыки машина легко усваивает и описываются они для неё точными методами, но вот штуки вроде движения по неидеальной местности даются ой как не просто.
Кстати, в рашке робототехника особо и не развивается. МЛ в робототехнике -- Япония, Америка. В рашке МЛ используется в областях, которые вообще принципиально не могут быть описаны точными методами -- выделение закономерностей по выборке данных, анализ которой нельзя провести вручную никак. Допустим, для формирования экономических моделей, вся хуйня.
И, кстати, тервер -- это то, что связывает реальный мир и абстрактный. И ещё -- в "сраной рашке" математическая наука развита на одном из самых высоких уровней в мире. Как чистая, так и прикладная.
Аноним 21/11/16 Пнд 20:42:39  879793
>>879764
>в "сраной рашке" математическая наука развита на одном из самых высоких уровней в мире
Олька. Ты ПАЛИЦЦО. Очинь-на сина ПАЛИЦЦО, да?
Аноним 21/11/16 Пнд 20:48:57  879796
Математическое образование в России

Математического образования в России нет.
Я уже 6 лет читаю учебные курсы и лекции в Независимом Университете; общая польза, принесенная этими курсами кому бы то ни было, практически нулевая; по крайней мере студентам-математикам пользы не было никакой. Я буду заниматься этим и дальше, но занятие это очевидно бессмысленное.

Мои скромные педагогические способности тут не при чем; будь я даже и Оскаром Зариски напополам с профессором Яу, у меня ничего не вышло бы. За эти 6 лет я не видел в Москве ни одного студента, который доучился бы до состояния, позволяющего вести научную работу (я видел довольно много хороших молодых ученых - Стефан Немировский, например - но учились они где-то в другом месте; я не знаю где, но точно не у нас). Единственная функция Независимого Университета - поставлять кадры для американских аспирантур; но и с ней он справляется, в последнее время, крайне плохо, поскольку интеллектуальный фонд истощился до полного опустошения и кердыка.

Исторически, в России имели место две параллельные образовательные системы; одна из них - университетская - за 5 лет худо-бедно давала знания, которые следует иметь студенту первого года обучения; она дополняла этот материал абсолютно бессмысленным концептуальным и вычислительным баластом и просто откровенным бредом (учебник Камынина помните?) Даже те знания, которые давались университетской программой, давались ей в виде мало-осмысленных вычислительных рецептов, и в результате понимание студентом сути вещей только затруднялось. Университетская программа выпускала не математика, а калеку, который математикой не мог заниматься уже никогда; если кто-то в результате и становился математикой, то только вопреки тому, чему его учили, а не благодаря этому.

Вторая программа была альтернативой, созданной Гельфандом, Маниным и иже с ними вокруг матшкол, Керосинки и семинаров Гельфанда и Манина; студент, попавший в эту структуру, к 3-4 курсу усваивал материал, соответствующий второму-третьему обучения математике (в смысле выше приводимой программы). Потом он оказывался в состоянии, которое Гельфанд охарактеризовал как бег за трамваем в попытках вскочить на его подножку; ни владения текущей литературой, ни возможности в ней ориентироваться программа Гельфанда и Манина не давала (да и библиотек, доступных студенту Керосинки, не было). Курсов, соответствовавших текущему состоянию науки, на мех-мате не читалось, кроме Манина, который избирал одну определенную область и год-два ею занимался; выпуская каждый раз 3-5 студентов, которые с тех пор и до самой смерти занимаются именно этим.

Гельфанд учил, что, чтобы таки допрыгнуть до трамвая, надо ходить на семинары, заведомо непонятные, и самостоятельно пытаться разобраться в том, что там происходит. Именно таким образом люди (кому повезет) осваивали материалы года обучения с третьего по пятый мною обозначенной программы (материал пятого года, конечно, тогда не весь существовал; вместо него были модули Верма и ББГ-резольвента, сейчас, видимо, неактуальные).

В последние 10 лет ситуация отчасти параллельна мною описанной. Имеются две конкурирующие программы: университетская (которая с 1980-х не изменилась, а только сократилась немного - скажем, спектральные последовательности в ней были, а сейчас их нет), и альтернативная, которой занимаются в Независимом Университете и в ИТЭФе.

Но есть существенная разница - люди, которые понимают о чем идет речь в математической литературе (типа, в http://arxiv.org) в основном уехали; в результате, охват альтернативной системы сократился с середины третьего года обучения по Гельфанду и Манину до середины второго. При этом никаких ориентиров в плане дальнейшего самообразования студент не получает. Колоссальный барьер между обучением на студенческих семинарах и чтением научной литературы, который требовалось преодолевать самообразованием, увеличился с 2 лет до 4 и стал непреодолим. Вместо пропасти, второй край которой отчасти просматривается, мы имеем черную дыру, которая поглощает каждого, кто к ней приблизится.

У нас нет учебных заведений, где мою программу обучения можно было бы использовать; но смысл в ней тем не менее есть. Смысл ее - в установлении приоритетов и ориентиров. Конечно, нет у нас студентов, которые в школе учат теорию Галуа и гомотопическую топологию, а на втором курсе постигли классифицирующие пространства и характеристические классы. Не то чтобы их не может быть в принципе - во времена семинаров Гельфанда и Манина такие студенты были - но факт состоит в том, что сейчас их нет; и не будет никогда, если интеллектуальный климат останется таким, как сейчас, и если мы не приложим усилий к его изменению. Программа, мною выше приведенная - есть не данность, а идеал, к которому необходимо стремиться.

Студенту, если он хочет чему-нибудь выучиться, полезно время от времени поглядывать на описанный куррикулум; и сообразовать свое обучение с этой программой. Иначе кердык.
Аноним 21/11/16 Пнд 20:49:49  879797
Первый курс
Анализ" Лорана Шварца, "Анализ" Зорича,
"Задачи и теоремы из функ. анализа" Кириллова-Гвишиани
Дифференциальная топология (Милнор-Уоллес),
Комплексный анализ (Анри Картан), Комплексный анализ (Шабат)
Второй курс
Группы и алгебры Ли (Серр)
Алгебраическая топология (Фукс-Фоменко),
"Векторные расслоения и их применения" (Мищенко)
"Характеристические Классы" (Милнор и Сташеф)
"Теория Морса" (Милнор),
"Эйнштейновы Многообразия" (Артур Бессе),
Коммутативная алгебра (Атья-Макдональд),
Введение в алгебраическую геометрию (Мамфорд)
Алгебраическая геометрия (Гриффитс и Харрис),
Алгебраическая геометрия (Хартсхорн)
Алгебраическая геометрия (Шафаревич)
Алгебраическая теория чисел (ред. Касселс и Фрелих)
Теория чисел (Боревич-Шафаревич)
Когомологии Галуа (Серр)
"Инварианты классических групп" (Герман Вейль)
Третий курс
Бесконечнократные пространства петель (Адамс)
К-теория (Атья)
Алгебраическая топология (Свитцер)
Анализ (Р. Уэллс)
Формула индекса (Атья-Ботт-Патоди, сборник Математика)
Гомологическая Алгебра (Гельфанд-Манин)
Когомологии групп (Браун, что ли)
Когомологии бесконечномерных алгебр Ли (Гельфанд-Фукс)
Кэлеровы многообразия (Андрэ Вейль)
Квазиконформные отображения (Альфорс)
Четвертый курс
Геометрическая топология (Сулливан)
Этальные когомологии (Милн)
Алгебраическая геометрия - обзор Данилова (Алгебраическая Геометрия 2, ВИНИТИ)
Группы Шевалле (Стейнберг)
Алгебраическая К-теория (Милнор)
Обзор Суслина по алгебраической К-теории из 25-го тома ВИНИТИ
Многомерный комплексный анализ (Гото-Гроссханс)
То же по книжке Демайи (перевод готовится)
Пятый курс
Громов "Гиперболические группы"
Громов "Знак и геометрический смысл кривизны"
Аноним 21/11/16 Пнд 21:03:37  879802
>>879797
н петух што ты тут делаешт ты ведб даже не можешь определять тут н
Аноним 21/11/16 Пнд 21:21:00  879813
>>879802
>определять тут н
{1,2,3,4,..}
Аноним 21/11/16 Пнд 21:26:40  879814
>>876954
А есть сцылка, гуглить в падлу, на заводе две смены отпахал.
Аноним 21/11/16 Пнд 22:00:18  879842
>>879793
Гугли сотрудников ИТЭФ, МИАН, НМУ. Это чистая математика. Прикладная -- работы сотрудников Форексиса и Яндекса. Экономическое приложение -- РЭШ, экфак/МИЭФ ВШЭ. ФУПМ/ФИВТ МФТИ, ФКН ВШЭ -- для проггеров пиздатое образование (если сам не идиот и по среднему баллу проходишь на нормальные кафедры).
Аноним 21/11/16 Пнд 22:03:27  879844
>>879793
А, ещё посмотри лауреатов филдсовской и абелевской премий. Статистика по первой: с 98 года 5 россиян лауреаты (двое имели гражданство США, но образование у них российское), а американцев -- только трое. Британцев двое.
Аноним 21/11/16 Пнд 22:15:14  879849
>>879844
Да, у нас прекрасные математики. Но с идущим прямо в пизду образованием у нас их будет всё меньше и меньше.
Аноним 21/11/16 Пнд 23:01:43  879868
>>879849
Если ты этот >>879793
то это уже манявры пошли...
Аноним 21/11/16 Пнд 23:04:14  879869
>>879868
Они не маняврируют, за манёвры 15 рублей не дают.
Аноним 21/11/16 Пнд 23:04:33  879870
>>879868
Это у тебя манёвры. Я лично математику по пиратским учебникам западным изучал, т.ч. содействия здесь со стороны государства я не наблюдаю.
Аноним 21/11/16 Пнд 23:05:08  879871
>>879869
А откуда тебе знать? Опыт работы в подобных конторах есть что ли?
Аноним 21/11/16 Пнд 23:21:38  879879
>>879871
Тюним параметры таких каждый день. Базарю, подкрепления от манёвров не даём.
Аноним 21/11/16 Пнд 23:42:12  879883
>>879870
>содействия здесь со стороны государства я не наблюдаю.
Но тебя даже не посадили в тюрьму как оскорбляющего чувства верующих экстремиста-педофила и агента влияния.
Так что содействие есть.
Аноним 22/11/16 Втр 01:03:31  879932
>>879716
> Для слесарей онлайн курсы есть.
Не знаю местных мемов, что за онлайн курсы, и что за слесари?
Аноним 22/11/16 Втр 01:49:27  879944
>>879842
Яндекс в основном хуево повторяет за гуглом. Пример отсоса математиков у слесарей.
Аноним 22/11/16 Втр 12:54:30  880108
>>879932
Слесарь это тот, кем ты мечтаешь стать. Онлайн курсы: https://lmgtfy.com/?q=machine+learning+online+course
Аноним 22/11/16 Втр 19:42:58  880367
Аноны, тут кто-нибудь угорает по рекуррентным нейроночкам? Как правильно сделать ввод-вывод нескольких связанных значений? Типа даёшь ей месяц, температуру, давление, осадки, а она предсказывает температуру, давление, осадки на следующий день. Где-то можно прочитать про подобную архитектуру?
Аноним 22/11/16 Втр 19:47:48  880372
>>880367
Не занимаюсь, но мб скоро придётся
Очевидный weather forecasting rnn
http://www.ijcaonline.org/archives/volume143/number11/zaytar-2016-ijca-910497.pdf
Аноним 22/11/16 Втр 20:17:26  880383
>>880367
для твоей задачи любая нейроночка подойдет, хоть rnn, хоть сверточка

https://keras.io/layers/recurrent/
там под каждой архитектурой есть ссылочки на статьи
Аноним 22/11/16 Втр 21:28:48  880474
>>880367
Есть мнение (подкрепленное продом яндекс погоды), что в этой задаче лучше все пихать в хгбуст.
Если хочешь нейронки - бери свертки, сильно проще учить и заходят не принципиально хуже лстмок даже в случае текстов, например.
Аноним 22/11/16 Втр 22:15:10  880507
Спасибо, аноны!
Аноним 22/11/16 Втр 23:24:28  880550
перекатывающаяся нейроночка
https://2ch.hk/pr/res/880548.html
https://2ch.hk/pr/res/880548.html
https://2ch.hk/pr/res/880548.html
https://2ch.hk/pr/res/880548.html
https://2ch.hk/pr/res/880548.html
Аноним 23/11/16 Срд 01:34:47  880633
>>879944
Спизданул нихуя не знающий о их деятельности десятиклассник? У них дохуя научки. Ещё можешь посмотреть кафедру "интеллектуальные системы" (она при ФУПМ МФТИ и ВМК МГУ, на ВЦ РАН), там дохуя трудов научных. Думаю, по Яндексу тебе будет лень читать, поэтому заинтересую Форексисом -- тоже российская компания, исключительно в области МЛ. У них прям на сайте список их научных работ есть.
Аноним 08/12/16 Чтв 01:31:48  890244
>>879796
Разве независимый университет не чмошная хуита?
Аноним 08/12/16 Чтв 13:04:14  890406
>>872146
Участвую. Из всех игровых констант учитываю не более 10% и прошел во второй раунд, лол, даже поиск пути не запилил. Тут нихуя не работает командная тактика, о сообщениях можно забыть до финала. Код - лапша из ифов. Короче, в этом году мейловцы обосрались с заданием.

[Назад][Обновить тред][Вверх][Каталог] [Реквест разбана] [Подписаться на тред] [ ] 507 | 44 | 127
Назад Вверх Каталог Обновить

Топ тредов
Избранное