Очередной тред про хипстерские технологии, которые не работают.Продолжаем выяснять, кто двигает ноуку: толпы смузихлёбов или фундаментальные деды.FAQ:Я ничего не понимаю, что делать? Либо в тупую import slesarplow as sp по туториалам, либо идти изучать математику курсы MIT тебе в помощь. Не нужно засирать тред вопросами типа "что такое сигма?".Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.Что почитать для вкатывания? http://www.deeplearningbook.org/В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai | https://github.com/pytorch/examplesГде набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/ | https://www.general-ai-challenge.org/Где работать? https://www.indeed.com/q-deep-learning-jobs.htmlГде узнать последние новости? https://www.reddit.com/r/MachineLearning/ | http://www.datatau.com/ На реддите также есть хороший ФЭК для вкатывающихсяГде посмотреть последние статьи? http://www.arxiv-sanity.com/Где ещё можно поговорить про анализ данных? http://ods.ai/Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.Список дедовских книг для серьёзных людей:Trevor Hastie et al. "The Elements of Statistical Learning"Vladimir N. Vapnik "The Nature of Statistical Learning Theory"Christopher M. Bishop "Pattern Recognition and Machine Learning"Взять можно тут: http://libgen.io/Напоминание ньюфагам: персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.Архивач:http://arhivach.cf/thread/340653/http://arhivach.cf/thread/355442/http://arhivach.cf/thread/360889/http://arhivach.cf/thread/366809/Там же можно найти треды 2016-2017 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"Предыдущий тред: >>1190173 (OP)
Продолжаем писать хуйню, господа.
>>1209084 (OP)В ответе на этот пост можете предлагать исправления для шапки. inb4 оп - хуй, шапка - говно
>>1209093Оп, ты сам этот диплернинхпук читал? Это же пиздец натуральный. Чисто по приколу потыкал, с 9 главы про сверточные сетки у меня пикрелейтед реакция. Чего они там нахуевертили, суть этой хуитки в пару картинок можно пояснить, для кого они там развели бодягу? Хуй проссышь же, про начинающих вообще молчу.
>>1209141грантогоспода получают бабосы
>>1209141Читал немного. У меня мат. образование, мне норм было.А как надо-то? Как хипсторы на медиумах, где "жмакните сюды, хуяк-хуяк, готово" и ничего совсем не объясняется? Да и не сказать, что там хардкор прям.
>>1209141Читай Мурзилку.>>1209093Все кроме диплернингбука в печь. Так и оставить одну строчку: тред про нейроночки, для вката читай это.Пик с колобками это моветон, мы же не хотим возвращения старых тредов, где сидели какие-то чуханы и несли какую-то дичь? Мы этого не хотим.
Че за цирк вы развели с умножением в прошлом треде? Вопрос был про вывод формулы и применение правил суммирования и умножения из теорвера.
>>1209261>циркДобро пожаловать в нейроночкотред. Снова.
>>1209261Я понял твой вопрос, но он настолько элементарный, что объяснять слишком долго, и толку от этого будет мало. У тебя нет базы, и пока ты нормально не изучишь матан и тервер, тебя будет ставить в тупик каждое уравнение. Тебе не нужен ответ, тебе нужно учиться, и ответ станет для тебя очевидным.
>>1209261> Вопрос был про вывод формулы и применение правил суммирования и умножения из теорвера.Хоспаде, да это первая глава любого учебника по теорверу, Вентцель, например. Разница только в том, что в твоем уравнении были векторы вместо скаляров, т.е. еще линейная алгебра впридачу.
>>1209233> Читай Мурзилку.>>1209093> Все кроме диплернингбука в печь.Ух, какой боевой свидетель смузи и сойлента. А потом такие вот сектанты сда приходят про сигмы и сложение/умножение вероятностей спрашиивать, и искренне охуевают от того, что знак умножения можно не писать, лол.
Есть сет для тренировки нейросети в виде пит булей. Как умножать векторы?
>>1209261Вопрос был о знаке звёздочки в макабе. Но маняматики не могли применить теорему Байеса для мысли. Читайте Гарри Поттер и методы рационального я сказал! Лучшие введения в диплернинг бубук! А китайцы уже давно кушают бамбук!
Нейроночки это зависимый тип или граф?
>>1209448Да.
>>1209448Это массив.
>>1209448Моноид в категории эндофункторов.
>>1209503>в моноидальной категории эндофункторов
>>1209551> в моноидальной категории эндофункторовВ монголоидальной. К слову, на coq'е есть либа flocq, как раз для доказательства свойств алгоритмов, вычисляющих вещественные числа. Так что формализовать даже самые ебанутые нейроночки с нахуеверченными тысячами слоев и параметров можно уже сейчас, но хипстеры не могут в пруверы.
Закапывайте свои нейронки, уже нимодно
А что читали лично вы, чтобы вкатиться? Мне интересны советы анона, помимо диплернинг бука.
>>1209906Да все подряд читай, что зайдет, то и лучше. Что-то полезное вынесешь из любого чтива. Я когда-то вообще начинал с Хайкина, лол.
>>1209906Советую поступить на специальность и получить нормальное комплексное образование. Не в России, конечно.
>>1209944Поздно, я уже учусь здесь.
>>1209945Пока на границе в спину не стреляют, можешь забрать документы и поступить туда где твое образование будет признаваться международным сообществом.
>>1209958А денег ты мне на это дашь?
>>1209962Подайся на стипендии, попробуй на бюджет (в некоторых странах Европы), проси скидку у университета, для студентов из нищих стран вроде России могут сбросить больше половины (в Европе), как поступишь, будет много возможностей получить стипендии и гранты. Если ты самка, то тебя завалят деньгами множество фондов, поддерживающих девушек в STEM.Серебряная пуля - заработай, тыжпрограммист, в коридорах постоянно будут шататься стервятники из всяких загонов для вебмакак.
>>1209966Спасибо, но твой совет не релевантен.
Свежачок от дипмайнд: https://deepmind.com/blog/neural-scene-representation-and-rendering/Нейроночка по одному кадру восстанавливает 3д сцену и рендерит ее с любой точки. Также это используется в обучении с подкреплением.
>>1210015Ролик снят, бюджет освоен, все довольны.
Запишите в шапку, что МФТИ - сборище додиков, а курс яндекса и физтеха на курсере обсирается на моменте с нейроночками.
>>1210157>папуасия>нейроночкиА про твою ЕОТ ничего не записать?
>>1210158>ЕОТУ меня нет такой. Хотя тяночка-лекторша из Яндекса мне понравилась.
>>1210015А оно только цылиндеры может рендерить, или по любой фотке может восстановить триде?
>>1210180Только геометрические фигуры из тренировочного множества. В блоге посмотри, там много примеров.
>1209084Вопрос к знатокам.Хочу использовать colab не для обучения игрушечных моделей на mnist-е, а для чего-то более приближенного к реальности.Соответственно, есть проблема: надо уместить датасет с фотографиями 224х224 в количестве около 2 миллионов в этот самый cloab...Как это сделать?На ум приходят только генеративные модели...Насколько реально воспользоваться DCGAN-ом для генерации изображений для подачи на вход обучаемой модели?Есть ли предобученные GAN-ы, которые могут выдать что-то вроде imagenet в разрешении 224х224?
>>1210185На заре ГАНов люди пытались вроде просто на свалках картинок вроде CIFAR или imagenet обучать. Такой ГАН выдает обычно нагромождение цветных пятен и линий, простейшие текстуры. Если тебе подойдет такое, то тренируй. Предобученные вряд ли найдешь, ввиду их бесполезности.
>>1210157>МФТИЭто всегда было поехавшее кукушкой дно из Долгопрудного
>>1209084 (OP)https://arxiv.org/pdf/1707.07012.pdfПиздос!Датасайентисты не нужны!
>>1210320Что там? С тилибона не грузится.
Поясните за область применения этих ваших нейроночек. Вижу, что тут все картиночки анализируют.Есть петпроектик по анализу веба, вот думаю, стоит ли туда вкрутить инс. Насколько это будет эффективно, и насколько готовые решения умеют в такого рода анализ.
>>1210326>>Что там? С тилибона не грузится.Ну, короч, в Гугле запилили LSTM-ку, которая дизайнит сверточные сети, обучили ее методом подкрепления, и Она выдала NasNET-A, который уделал на ImageNet топовые архитектуры, спроектированные человеками.
>>1210344Ну там не только картиночки, какбе, там ешё мыниный перевод, чат-боты там всякие, имитатор твиттера трампа и т.д.
>>1210383Ну, такое. Сто лет известно, что гиперпараметры одного алгоритма можно подсунуть другому в виде параметров.
>>1210344На картиночках был первый прорыв, он же основной. Еще большой шаг был в распознавании речи (сейчас 100% этих систем на нейроночках, как и в картинках), обучении с подкреплением (хотя там речь тоже всегда идет о картиночках, так что трудно отделить одно от другого), генеративных моделях (с картиночками). Совсем без картиночек самое заметное достижение было в differentiable neural computer. В НЛП есть продвижения, но относительно небольшие.Не знаю, что за анализ веба у тебя. Готовых решений никаких нет.
>>1210517>сейчас 100% этих систем на нейроночках,Не не пизди, нейронки там сосут как и вездеhttps://blog.neospeech.com/top-5-open-source-speech-recognition-toolkits/
>>1210383Ты вообще понимаешь что такое архитектура свёрточной сети? Это хуя слой, хуяк сюда ещё один и хуяк пул между ними, а тут хуяк полносвязку на выход, заебись, Петрович, щас всех котов и собак посчитаем.
Чувак сделал публичный бесплатный сервис для проверки рентгеновских снимков груди на наличие опухолей: http://neuralrad.com:5000/Сам сделал адово точную модель, собрал на свои деньги кластер из 50 1080ти, и прицепил веб-сервис и десктопную прогу.
>>1210753Нахуя?
>>1210755Чтобы получить халявных фоток с сиськами
Так вот там lstm составляла дизайнала модули (обычный и с пуллингом, типа как в инсеишонах всяких там), которые потом стекали, добавляли к ним полносвязные слои и обучали.Чем выше получался скор на сифар 10, тем больше вознаграждение.В итоге, нейросеть спроектировала модули круче, чем человек...Из этих модулей составили несколько сетей, обучили на имаджнете, и уделали все, что до этого спртектировали жалкие людишки!!!
>>1210947>уделали>на один процент>ценой значительного роста вычислительной сложности и числа параметров>получили архитектуру с кучей логических ляпов и несуразностей>теперь еще меньше понимаем, что происходит внутри сети
>>1210951>уделали>на один процентБолее чем достаточно, чтобы на кагле срубить даже не десятки к$.
>>1210968>каглеГовно твой кагл, там хуйня одна потешная
Алсо, асимптотически-эффективные методы, они такие. Добавил сотню видюх в кластер - получил 1% прироста эффективности, добавил еше сотню - получли еще +0.1%. Вам еще в 60-е пояснили, что это путь в никуда, и нужно копать в сторону неасимптотически-эффективных методов.
>>1210970>неасимптотически-эффективных методов.По русски говори
>>1210973>По русскиЗначение знаешь?
>>1210978Да
>>1210968Да там уже сто лет нет денежных компетишенов с картинками
>>1210951Топ-1 выше на 1%, вычислительная слоюность на 28% ниже, чем было до.Тебе че бомбить то так, шизик?
>>1210970>неасимптотическиКакое тогда мерило эффективности алгоритма использовать, если не асимптотику?
>>1211116>мерило эффективности алгоритма Симпоанусуческое схождение
>>1211116На эту тему целая теория статистического обучения.
>>1211162Анусопердолинговый коэффициент
>>1211162Мохнатое О
>>1211107То, что компуктер брутфорсом улучшил архитектуру сделанной человеком нейронки, означает лишь то, что человек пиздец как не понимает, как нейронки внутри работают. Это не прогресс, это шаг назад.Да, и на сравнительные графики стоит добавить число параметров, а то память тоже не резиновая.
>>1211226> брутфорсом улучшил> человек пиздец как не понимает, как нейронки внутри работаютОпять ты на связь выходишь, мудило гороховое? Чем тут срать, лучше бы почитал что-то по теме, глядишь не выглядел бы полным дауном.
>>1211229>мудило гороховоея не гороховое
>>1211229А там и читать нечего, кроме ссаного пейпера. Конфигурацию слоев нейронки ищут с помощью другой нейронки, гоняя эту хуету на 500 GPU. В результате архитектура сети подгоняется под конкретный датасет (на другом надо делать все по новой). Охуеть прорыв.
Cкиньте лучше мем с карлсоном
>>1211423
>>1211423Зачем тебе это, когда уже генератор мемов сделали: https://arxiv.org/abs/1806.04510Dank Learning: Generating Memes Using Deep Neural NetworksAbel L Peirson V, E Meltem Tolunay(Submitted on 8 Jun 2018) We introduce a novel meme generation system, which given any image can produce a humorous and relevant caption. Furthermore, the system can be conditioned on not only an image but also a user-defined label relating to the meme template, giving a handle to the user on meme content. The system uses a pretrained Inception-v3 network to return an image embedding which is passed to an attention-based deep-layer LSTM model producing the caption - inspired by the widely recognised Show and Tell Model. We implement a modified beam search to encourage diversity in the captions. We evaluate the quality of our model using perplexity and human assessment on both the quality of memes generated and whether they can be differentiated from real ones. Our model produces original memes that cannot on the whole be differentiated from real ones.
На Яндекс блице осилил только одну задачуКакая же я чмоня, как же глубоко я себя ненавижу
Аноны, скажите: бинарные переменные можно рассматривать как частный случай ординальных, или лучше только номинальные?
>>1211329А вот хуй! Архитектура слоя перенеслась с Мицар на имаджнет!
>>1212055Да.
>>1211438Этот неревелантен.>>1211454Где там получить моего карлсона?
>>1212056Это ты вот эту олдфажную годноту вспомнил: https://en.wikipedia.org/wiki/Mizar_system ?
>>1212067Жди когда сделают сервис, где за биткоины можно будет купить рарные мемы. Для голов анимешных девочек уже сделали: https://crypko.ai/#/
>>1212171У меня от этого испанский стыд
>>1212238Анимешник, please.
>>1212243
>>1212243 FS@UR. Экс вен? Давай мыло, вопросы должны быть отвечены, не время прятаться. Не оттягивай неизбежное. А то неизбежное сделает кусь-кусь. ^_^
>>1212345void ToExpand(_u1 ٭ _flag, F_S_N<T, I> ٭ _F){ _u4 i0, i1, i2; _i4 nowd; _F->root = root; F_S_Ns<T, I> tmp0, tmp1, ٭tmp; F_S_N<T, I> ٭FF; _F->Space.Init(11); _F->Dimensions.CopySet(&Dimensions); _u1 dcross = 1; i0 = 0; while (i0 < Dimensions.now) { if (_flag[i0]) { _flag[i0] = dcross++; FF = root->F + Dimensions.D[i0].D; i1 = 0; while (i1 < FF->Dimensions.now) _F->GetD(FF->Dimensions.D[i1++].D); } i0++; }
>>1212163Нет, это вспомнила анальная автозамена от гугла, когда я ввел СИФАР10.
>>1212359>Space.Init(11)>11Не лезь дебил, она тебя сожрет! Алсо теория струн конфермед?
>>1212381Обязательно умрем.Работаю над этим.
>>1212359 Пиши давай, в общем. [email protected]
>>1212391>Пиши давайА ты няшный?
>>1212238Представь еще сколько трудов ушло на это. Скорее всего ради резюме старался чел, ну и надеялся на взлет как у https://www.cryptokitties.co/ , но забыл про вложения в рекламу. Вообще вся эта область это ад какой-то. Хотя может это мы старые и отсталые, не понимаем нового мира.
Блэт, кто-нибудь юзал Accord.NET? Пытаюсь воспроизвести пример https://www.mathworks.com/help/images/texture-segmentation-using-gabor-filters.html , но ебучая кластеризация даёт пикрил1. Если полученные из PCA дескрипторы визуализировать, получается пикрил2 - вроде бы явно прослеживается разница в текстуре, но к-средних такую залупу даёт.
>>1212636Юзал лет 7 назад, когда мне было еще не очевидно, что дотнет мертв, и нейроночки еще не взлетели.>анализ изображений с помощью РСА и к-среднихА почему не на Фортране?
>>1212739Есть другие простые способы уменьшить размерность вектора и кластеризовать данные?
>>1213015Простых нет, ты выбрал самые простые, поздравляю. Есть работающие.
>>1212481 Не о том думаешь, мясо. Хотя...>мясо>думать
>>1210753Ссыль давай!
Короче я так понял ML и НС это для пидарасов, желающих отобрать у обычных работяг рабочие места.
>>1213017> Есть работающие.Диплернинх? Ну вообще да, стыкованные аутоэнкодеры это могут, но они ж тоже не в моде, на коворкинге засмеют.
>>1213047Всего лишь попытка успешно распознавать корову
>>1213166Что означает "базовая функция" в машинном обучении?
Как же мне печет с вашего хайпа, когда он уже протухнет?Мимо архи-ранняя птичка, пытавшаяся в машоб в 2007 и наткнувшаяся на стену непонимания
>>1213397Обустраивайся на помоечке поудобнее.
>>1213404Ну мне сейчас неплохо, это скорее датасцаентисты на помоечке будут, если сравнивать.
>>1213412Мантры это хорошо, помогают психике не сломаться.
Гоняю модель кераса по таблице параметров в цикле и она зависает при переходе на следующую итерацию. Как пофиксить? Заменил модель на регрессию из sklearn - нормально делает гридсерч, обучается, выводит результаты в файлы и переходит на следующую строчку таблицы с другими параметрами, никаких проблем. Возвращаюсь на модель из кераса - считает первую итерацию, выводит результаты в файл, переходит на следующую строку в таблице и на этапе гридсерча фризит.
>>1213616Что там за параметры у тебя? Может, ты делаешь миллион слоев или тому подобный идиотизм.
>>1213739Нет, когда не получилось с моделью которая нужна, попробовал самую простую - в один слой.
>>1213742Вся суть. Вместо применения нескольких слоев пытаются изучать Вапника и делать всё на однослойном перцептроне.
>>1213752Для тех кто читает мугичкой, однослойный перцептрон нужен чтобы потестить будет ли цикл переходить на следующую итерацию. Спойлер - не будет.
>>1213760У маняматиков всё по шаблону. Они даже не могут самостоятельно написать комментарий на дваче, не то что пейпер. Все мемы уже выучил?
>>1210753>публичный бесплатный сервис для проверки рентгеновских снимков груди на наличие опухолейПолучит сгущёнки 100%
>>1213760Код цикла выложи, гляну.
>>1209084 (OP)>Где работать? https://www.indeed.com/q-deep-learning-jobs.htmlА в России? Хочу перекатиться в это.
>>1213987https://5ka.ru/career/?location_type=store
>>1214027Я же не в фронтенд пытаюсь вкотиться.
>>1214037Нужен фронтенд для нейроночек на блокчейне. Суть проста: пишешь лэндинг, пэйпэр и продаёшь свой смузикойн с инвестицией в нейронные сети.
>>1214037Во-первых в рашке нет шансов; во-вторых кто в здравом уме хочет работать в рашке, если есть возможность работать вне ее?
>>1214046Смишно.>>1214048Понятно, значит в Рашке ничего нет. А работать вне ее пределов - трудно, кому нахуй нужен русский иммигрант-самоучка с кое-какими начальными знаниями?
>>1214054>кому нахуй нуженЕсли ты хочешь, чтобы тебя уговаривали, то этого не будет. Каждый сам за себя, нейронщик нейронщику волк!
>>1214080Нет, ну это естественно, просто мне в такой вариант развития событий не особо верится. Есть где блоги или хотя-бы отдельные пасты про таких вкатывальщиков?
>>1214082Леночка.
>>1214082https://habr.com/post/310776/
>>1214082А почему бы не взять и просто без задней мысли получить профильное образование, PhD и перестать быть вкатывальщиком?
>>1214089>https://habr.com/post/310776/Его кегля: https://www.kaggle.com/iglovikov>highest rank: 19>1st, 3rd, 7thЕдрить он крутой>Спецназ ВДВ. Медаль за Чечню. (2002-2004)...
>>1214092Нет денег на обучение за границей.
>>1214102в европе много вузов бесплатно, еще и тебе будут платить выше средней по россии
>>1214104У меня сейчас сознание сделало сальто назад.Что, прости? Это касается только Ph.D?
>>1214104По подробнее пжлст
>>1214111https://habr.com/post/151643/https://habr.com/post/151090/ ниже в комментарии и тд
>>1214105>>1214111-> >> 1209966
>>1214099>https://habr.com/post/310776/Ну из физиков-то чего бы не вкатиться в эту парашу
>>1214092>без задней мысли получить профильное образование, PhDИ сколько лет это займёт? Твои нейроночки уже неактуальны к тому времени будут.
>>1214397Это у веб-макак все становится неактуальным через год, но куда вкатывальщикам понимать такое.
ПхД требует же каких-то телодвижений, умения рычать и двигать тазом в научной среде. Это похоже на то, чтобы найти тяночку.
>>1214436ПхД похоже на то, чтобы быть тяночкой и двигать тазом под научным руководителем, который за старания может поделиться тобой с друзьями.
Сегодняшний ИИ - это БД и механизмы её обработки и создания.
>>1214628Любой интеллект это БД и механизмы её обработки и создания.
>>1214679нет
>>1214679Почему не споришь с Моим Величеством, не понял? :(
>>1214679Да, память это да
>>1214679Толко большинство этого не понимают. А может, и ты не обращал на это внимания, пока не прочитал пост.
>>1214679>это БДКокой БД и как там хранится информация?
Тэкс бля, анончик. Написал я тут свою первую нейросеть, которая должна правильно считать XOR. На вход подается два числа - 0 и 1 в разных комбинациях. Есть два скрытых нейрона и один выходной. На нем собсна должен быть либо 0, либо 1. Так вот, по итогам обучения, сеть начинает правильно считать только один ответ. Например при подаче 01 и 10 он правильно выдает ответ 1, но на оба других сета он так же выдает 1. И считает ошибку в 50%. На этом он прекращает обучение. Его это устраивает епту а меня нет. Это значит, что я даун и неправильно сеть написал или я чего то еще не знаю? Я добавил bias, но ничего не изменилось. Изначально везде значения рандомные от -5 до 5.
>>1215520Нейронов нафигачь побольше, начальные значения в интервале +-0.01, bias нужен обязательно. Ну и судя по твоему посту вероятность того, что ты набажил в градиентном спуске 95%.
>>1215517Не важно как, по разному, описана сама суть сегодняшнего "ИИ".Фуфуло это, а не ИИ.
Треду нужна матановая капча от спама школьников-гуманитариев.
>>1215562Какой-нибудь вольфрам такую капчу легко сожрёт.
>>1215565Они не знают про вольфрам, и не знают как там ввести эти смешные закорючки.
Почему в этом вашем диплернинхе не в моде иерархический софтмакс? Он же снижает число настраиваемых параметров нейроночки до его логарифма. В word2vec это замутили, и получили нейроночки, которые на процессоре могут строить модели векторных представлений текста из корпусов в миллиарды слов. Без всяких видюх. Автор, что характерно, внешне абсолютно не похож на хипстера. Я уже реально верю, что хипстерство - 100% детектор дегрода.
>>1215586Пучкнул с этого деда.
>>1215524Я сделал всё таки, проблема была в том что я долбоеб я ошибся в формуле дельты выходного нейрона.
Как создать нейронку которая будет узнавать наиболее частые данные? C++, вектор, сортировка?
>>1215786Какой результат ты хочешь?
>>1215800У меня есть программа которая коллекционирует данные в текстовый файл. Нужно эти данные анализировать не самостоятельно. Общие, наиболее частые из этого файла. Как это делается правильно? Файл в вектор, вектор сортировать, отправить в следующий нейрон?
>>1215810Пиздец, вместо того, чтобы учить анализ данных сразу МАШОБЧИК НЕЙРОНОЧКИ ИИ БЛОКЧЕЙН ДИПЛЁРНИНХ.
>>1215810Анализировать чтобы получить какой результат? Если тебе нужно просто вывести статистику на моду, медиану и среднее значение встречающихся данных то это делается простыми функциями какого-то нумпая изкоробки.
>>1215813>>1215815Не, я просто думаю на счёт вкатывания в тензорфлоу или свое сделать. Тензорфлоу с плюсами не работает. Смогу ли подобие тензорфлоу сделать?
>>1215820Слесарьфлоу это огромная библиотека в которую вкладывается Корпорация Зла. Для С++ есть Caffe. Еще есть сишный Torch у которого врапперы под кучу языков, включая плюсы. Но судя по тому что ты несешь, тебе стоит почитать пару книг из шапки чтобы отбилось желание "вкатываться в тензорфлоу" и "вектор сортировать, отправить в следующий нейрон". Нейроночки это не хипстерский фреймворк для вебмакак, тут нужно глубокое знание матана и годы изучения матчасти.
Посоны, подскажите модели для сегментации, хочу пробнуть в darknet но не пойму структуры сети.
Пиздец, бля. Захотел вкатиться в слак попендатасайнс. Полмесяца назад заявку отправил, заигнорили.
>>1215846Просто ты нам не нравишься.
>>1215846Два предложения не смог сказать без мата и быдлослога. Прирожденный датасаентист.
Поздно ли пытаться стать дата саентистом/инженером в 24 года?
>>1215860Конечно, иди нахуй, нас тут и так много.
>>1215858Их три, уебок.
>>1215862Поцоны говорят, что дефицит.
>>1215864Ну если три, то все ок.
>>1215865Пиздят.
>>1215871Ну ниче, будешь меньше получать. Мне норм - все лучше 10 тыс. на завчике.
Нейроночки на фрилансе это есть?
Сойбои, что такое пэйперсы?
Подскажите,плиз, если какие-нибудь решения для машин лернинга на Java, что бы это можно было реализовать, например для мониторинга логов в крупном EE приложении?
Осторожно! Эта сторона треда под обстрелом.
>>1215895> Сойбои, что такое пэйперсы?Статьи.>>1215898> Подскажите,плиз, если какие-нибудь решения для машин лернинга на JavaСлесарьплов js.
>>1215786Как создать птицу, которая будет помогать наиболее чистые кастрюли? Ворота, автомобиль, готовка?
Посоны, а чо с фрилансом в данной области, он вообще жив?
>>1215958Удалось найти подработку-проект по распознаванию номеров за 50к
>>1215960На каких площадках искал, апворк или что-то русское? Надеюсь, ты меня не просто траллишь
>>1215960> распознавание номеровСеместровый проект какого-то тупого студента.
>>1215945>Слесарьплов js.я не знаю аших локальных мемов, переведите, пожалуйста
Почему не рекогнайзит?
>>1216002Тут проблема не в базе. Что не так с алгоритмом?
>>1216002Потому что ущербная модель. Для таких четких снимков и ракурса можно хоть хаар-каскад натренировать.
Антоны, а в современных сетях по распознаванию изображений сейчас все так и строится на количестве слоев? Есть где-нибудь работы, где бы пытались повторить особенности человеческого глаза или пальцев, у которых в центре чувствительность больше?Обычные сверточные и не только сетки я писать умею, интересно бы и такое ввести и посмотреть, насколько точнее сумеет распознавать.
>>1216013attention is all you need
>>1216013Машиной Больцмана повторили мозги котиков.
>>1216015Cпасибо, почитаю.
>>1216020Там про последовательности, правда. Но в изображениях тоже много где применяется, ищи по слову attention.
Аноны, хочу перекатиться из нейронок в практический анализ данных. Искать там всякие неочевидные связи и инсайты. Что можно почитать по теме? Может какие-то годные курсы на курсере есть?
>>1216057"Наглядная статистика. Используем R" попробуй.
>>1216061А весь датасайнс на R делается? На питоне/pandas не смогу вкатиться?
>>1216077pandas вроде не особо популярная приблуда, хотя хорошая, если надрочиться с индексами и выборками. На питоне все нейроночки, без них никуда. На р больше статистики всякие работают, еще у них популярна эзотерика вроде САС. Смотря где ты будешь работать, может понадобиться что угодно из этого.
>>1216153> На питоне все нейроночки, без них никуда. На р больше статистики всякие работают, Как там в 2010? На R давно есть и слесарьплов и керас. + куча всего, чего никогда не было, нет и не будет на Пистоне.
>>1216077Расценивай это как справочный материал в первую очередь, потом уже можно думать о механизмах и актуальности. А так хоть будешь знать, о чём гуглить и что спрашивать.
>2.jpgВ чом смысол второй картинки
>>1216235Предполагаю, что где-то здесь> papers или статьи
>>1216251да я просто новенький, типа дип лёрнинг не нужно юзать в таких задачах или что?
>>1216251
>>1216278ну объясните, ну чтооо :C
>>1216281>объясните
>>1216301бяки :C
Насколько сложно нюфагу-питонисту вкатиться в нейрончики?
>>1216369Неимоверно. Даже не пытайся, оно тебя сожрёт.
>>1216372Спасибо. Я правильно понимаю, что машинное обучение и нейронные сети предназначены для решения как практических, так и теоретических проблем?
>>1216369ты уже все знаешь
>>1216369Некоторые только ради нейроночек в питон и вкатываются.
Есть ли где-нибудь в сети курсы математики для вкатывания в нейроночки? Попробовал посмотреть один туториал по ним, и знатно так прихуел от того, что не понимаю тамошнего уровня матана
>>1216439Двачну, только ради нейронок выучил пидорский бейсик
>>1216442На курсере всё есть.
Посаны, поясните зачем столько сетей там, если хватило бы только одной для оценки следующего возможного оптимального хода из всех возможных ходов, выбранный по максимальному значению выхода сети? Или я чет не понимаю? Написал для русских шашек MCTS, хочется влепить туда нейросеть для проверки концепции.https://www.youtube.com/watch?v=HP9S1Az8Tuw
>>1216481Ты не понял. Оно само с собой играет.
>>1216569Это понятно. Потом мы тренируем сетку теми партиями, в которых компьютер ходил случайно или по максимуму дерева с оценкой от нейросети. Непонятна вторая сеть с вероятностью поставить пешку в конкретном положении.
>>1216481Вопрос сродни "зачем сороконожке столько ног когда можно вообще без ног как червяк ползать?" Да, ты чет не понимаешь (ничего). Не смотри никакие видосы, а читай основы (Саттона), потом ботай статьи, начиная с самых первых про альфаго. РЛ это передний край науки, на понимание уйдет 1-2 года, если ты уже спец по нейроночкам.
>>1216651Когда я буду понимать алгоритм в общих чертах, то и книга легче пониматься будет. Первая модель гугловская вообще была не пойми как придумана с избыточностью данных, но она работала. Тут дело больше в опыте.
Анон, вот смотри. Есть два продожительных непериодичных квантованных сигнала состояния системы, один - когда на систему воздействовали определенным воздействием, второй - когда на систему воздействовали другими.Я надеюсь, что в первом случае можно найти какие-то паттерны или сигнатуры. Сложность в том, что сигналы непериодичны и я не знаю длинну этих паттернов, которые я ищу.До этого была похожая проблема, но там сигнал периодичный и все было просто - беру количество семплов, которые образуют период - это мои фичи, разделяю сигнал на (продолжительность/кол-во_фич) - это мои наблюдения. Если бы сигнал был непериодичный, но с известной длинной паттернов - то просто бы пустил скользящее окно известного размера. Но в моём случае сигнал не периодичный и размер паттернов я тоже не знаю.Как правильно поступать в таких случаях?
>>1216921Теоретически подходят рекуррентные нейроночки, но на практике неочевидную на глаз закономерность они не найдут. Я бы сверточную сеть пустил по фиксированному окну. Просто пробуй разные размеры.
>>1216651> РЛ это передний край науки, на понимание уйдет 1-2 года, если ты уже спец по нейроночкам.Че? Q-learning итп РЛ прост как 3 копейки, если знаком с уравнениями Хебба. Диплернинх во все это добавляет только сложность входных сигналов, вместо простых векторов это могут быть тензоры, соответствующие динамическим последовательностям кадров игры итд.
>>1216921Нейроночкодебилов с сойбойским диплернинхом не слушай. Я похожей хуйней занимался с целью анализа записи электрокожной активности. Короче, суть такова. Делишь сигнал окном подходящего размера, внутри окна считаешь минимум, максимум, стандартное отклонение, число пиков, и некоторые характеристики площади под кривой (area under curve), типа интегрирования. Алгоритм анализа EDA у меня был под матлаб, поэтому пришлось в нем корячиться с окном и фичами, могу код скинуть завтра, если интересно. Далее из фич собираешь векторы (вектор-строка - набор фич сигнала в пределах окна), из векторов собираешь датасет, помечаешь наблюдения и классифицируешь чем угодно, хоть svm. Если пометить нечем, то unsupervized что-нибудь юзаешь, например карты Кохонена.
>>1216938>электрокожной активности. Мурашки генерил?
>>1216938Спасибо, чувак! Мне твой метод больше нравится, потому что он "наукоёмче" чем просто взять нейроночку и скормить её данные. В конце концов, мне не для реального применения, статью писать же.Алгоритм не надо, я думаю его на гейтоне неализовать будет быстрее, чем разбираться с матлаб-кодом.
>>1216940> Мурашки генерил?Нет, там проводимость кожи в микросименсах. Проблема с этим сигналом в том, что у него нет внятных спектральных характеристик чтобы просто ебануть фастфурье преобразование. Просто известно, что что-то происходит в течение 5 сек после внешнего воздействия с фазической компонентой сигнала и в течение 20 сек с тонической. И это что-то как-то связано с состояниями ЦНС. Ни внятных паттернов сигнала, нихуя. Но вот наборы фич компонент сигнала таки можно классифицировать, правда точность 60-70%, но если использовать конфьюжнматрицу, то нормально. А со всякими реккурентными нейроночками даже не знаю, сколько бы ебался и был бы вообще результат. Вообще, диплернинх лучше классических подходов только на неграх и котиках, для нормальных задач анализа он и не нужон.
>>1216949А можно электрическую щекоталку скрафтить?
>>1215598Софтмакс гасит градиенты
Привет, нейрач, у меня есть определенная проблема.Попробовал запилить transfer learning, в качестве датасета - CIFAR-10, сверточная часть - NasNetMobile...Сверху приделываю один полносвязный слой и получается какая-то хуйня: оно на может выдать точность выше 13,6% на валидации!На нем же обычная сетка слоев из 4 обучается до точности в 75%!ЯННП! ЧЯДНТ?
>>1216974Набажил.
>>1216974Разобрался, сам тупанул с количеством нейронов в слоях.
Сертификат окончания специализации мл+питон на яндексе рили помогает с трудоустройством или это обман чтобы набрать шекели? Не лучше ли пройти вашингтонский курс и будет ли он более полезен?
>>1217010В плане бумажек они оба бесполезны. Не вздумай класть их в резюме - все знают что это курсы для даунов.
>>1217039А как стартовать тогда? Освоить Энга и сразу на кегель собирать портфолио, попутно читая литературу?
>>1214684одушевленного существа ответ
>>1217043Двачую вопрос.
>>1216951Без задней мысли, видел такие хуйни в сауне, довольно прикольные ощущения.
Анончик, я вот не понимаю и не могу найти информацию. Как генетические алгоритмы связаны с нейросетями? Правильно ли я понимаю, что изначально они никак с нейросетями связаны не были. Но когда те стали популярны, то оно там как то начало связываться? Или что бля?
>>1217516> Как генетические алгоритмы связаны с нейросетями?Никак. Однако, ничто не мешает делать из них гибридные модели, в которых параметры или гиперпараметры одного алгоритма настраиваются другим.
>>1209084 (OP)Посоны, объясните за TimeDistributed в keras:import kerasfrom keras.models import Modelfrom keras.layers import Convolution2D, MaxPooling2D, ZeroPadding2D, GlobalAveragePooling2Dfrom keras.layers import Dropout, Flatten, Dense, Inputfrom keras.layers import TimeDistributedi = Input(shape=(10, 224, 224, 3))x = TimeDistributed(Convolution2D(64, (3, 3)))(i)x = TimeDistributed(GlobalAveragePooling2D())(x)x = TimeDistributed(Dense(128))(x)m = Model(inputs=i, outputs=x) opt = keras.optimizers.Adam(lr=0.0001, beta_1=0.9, beta_2=0.999, epsilon=None, decay=0.0, amsgrad=False)m.compile(loss='mean_squared_error', optimizer=opt)m.summary() #TimeDistributed "спрятал" слоиi = Input(shape=(224, 224, 3))x = Convolution2D(64, (3, 3))(i)x = GlobalAveragePooling2D()(x)x = Dense(128)(x)m = Model(inputs=i, outputs=x)itd = Input(shape=(10, 224, 224, 3))xtd = TimeDistributed(m)(itd)mtd = Model(inputs=itd, outputs=xtd)mtd.compile(loss='mean_squared_error', optimizer=opt)mtd.summary() #TimeDistributed "спрятал" модель mВ результате выполнения примера я вижу:Using TensorFlow backend._________________________________________________________________Layer (type) Output Shape Param # =================================================================input_1 (InputLayer) (None, 10, 224, 224, 3) 0 _________________________________________________________________time_distributed_1 (TimeDist (None, 10, 222, 222, 64) 1792 _________________________________________________________________time_distributed_2 (TimeDist (None, 10, 64) 0 _________________________________________________________________time_distributed_3 (TimeDist (None, 10, 128) 8320 =================================================================Total params: 10,112Trainable params: 10,112Non-trainable params: 0__________________________________________________________________________________________________________________________________Layer (type) Output Shape Param # =================================================================input_3 (InputLayer) (None, 10, 224, 224, 3) 0 _________________________________________________________________time_distributed_4 (TimeDist (None, 10, 128) 10112 =================================================================Total params: 10,112Trainable params: 10,112Non-trainable params: 0_________________________________________________________________Почему эта ебанина "попрятала" внутренности?Будет ли работать mtd?
опенсв 2 и 3 версии одновременно не встают на компьютере. Почему? Проблема в системных вариейблах. Прописываешь 2 версию - 3 вылетает, прописываешь 3 - 2 вылетает. Есть какой-нибудь инсталлятор который сделает?
>>1217783Гугли virtual environment под свой язык.
>>1217783
Мейлрушный MLBootCamp стартовал. В этом году какая-то анонимизированная хрень, я скипну. Если кому макбук надо, пробуйте.
Работаю с объемным pandas.DataFrame и нередко скрипт вылетает с MemoryError (да, питон 64 бит) во время гридсерча с n_jobs=-1. Как бороться? На стековерфлоу написано что проблема переполнения памяти решается использованием баз данных, но в первых найденых примерах на гитхабе из базы вытаскивается все тот же DataFrame.
>>1218086Памяти купи.
>>1218090> Памяти купи.У хипстеров от машобчика с производителями памяти гешефт какой-то? Тоже встречался с алгоритмом, не хватало памяти, там есть вариант работы с датасетами на диске. Сделал по примеру в документации, и что? Все равно всю оперативку сожрало и вывалилось с ошибкой "мемори хутю утютю", только не сразу, а спустя минут 20 яростного потрясения винтом. Вредительство самое настоящее.
>>1218090200 гигов. Какие еще варианты?
>>1218112Это у тебя уже бигдата какая-то, используй соответствующие решения.
>>1218094>по примеру в документацииПиши свой код. А то опять кто-то говна в жопу залил. Ещё небось сидишь на "4 ядра 4 гига для учёбы"
>>1218192>200 гигов>Биг датаЛол
>>1218227Ещё один. Бигдата это просто методы работы с тем, что не вылезает в оперативу. И эти методы начинаются ровно там, где оператива заканчивается. Хоть с 2 гигов. Школотронствуя в стиле> <10050006000гиг> бигдатаТы показываешь ровно одно - непонимание термина.
Опенсв библиотека иксфичес2д.хпп не поднимается. Нужен серф из нее. Что делать?
Препод унижает меня за использование lbfgs, говорит что он для нубов и нужен дедовский sgd, что мне ему ответить?
>>1218322Ты мейроночки им тренируешь? Тогда ответь "да, сэр, так точно, сэр". В любом случае нужно обосновать почему ты используешь его.
>>1218337Мое обоснование - датасет небольшой, для гридсерча можно быстренько погонять lbfgs, а если так нужен sgd, то использовать уже с подобранными гиперпараметрами. https://www.youtube.com/watch?v=8LccBQaoM3Y
Что это такое?
>>1218638В сиауте до стрелки - массив, после стрелки - резалт. Резал - что такое?
>>1218347Ну какбе применимость (l)bfgs зависит от количества параметров, а не от размера датасета.Хочешь лучше, чем просто градиентный спуск, - есть методы сопряженных направлений...Хотя и они на больших задачах жирноваты.
>>1218638Результат работы XOR с двумя переменными https://en.wikipedia.org/wiki/Exclusive_or .
Так можно быстренький вопрос Достаточно для того чтоб начать вкатываться знаний за первый курс мехмата нгу ?http://mmf.nsu.ru/education/plan/1/2017-2018
>>1218895В шапке, блять, написано. На первом курсе матан, скорее всего, одной переменной
И что из этого взять нубу для распознавания образов?
>>1219044Keras. Может быть OpenCV, зависит от задачи.
>>1217516Очень просто, если что-то очень сложное в сетке намутили, для чего ещё нет алгоритма обучения, то тогда используют генетический алгоритм.
>>1219044Всмысле распознавания образов? Слишком расплывчатое понятие. Картинки классифицировать на керасе ессесно, самое простое для нуфага.
Как можно монетизировать свой дрочь в этой сфере? Я имею ввиду естественно не конкурсы и работу, а именно что-то, что может заменить человека в интернете и наёбывать на рекламу/контент. Хочу взяться за сложное задание чтоб чекнуть, могу ли.
>>1219128Я думаю, что если можно, то тебе тут никто не скажет как.
>>1219134Я ведь не спрашиваю что можно легко и как это сделать. Я спрашиваю про то, где анон не справился бы, но знает где.
>>1219137Создай ИИ, который будет играть за тебя на бирже и выигрывать. Удачи.
>>1219155Уже доказано, что это невозможно. А для закупок акций с отложенной выплатой и перевода средств в другую валюту не нужно ИИ.
>>1219128Вроде были сервисы где платили центы за распознавание капчи. Хотя видеокарта наверно больше электричества сожрет как. Лучше уж майнинг тогда.
>>1219128Нейросети анона по размеру с нейросеть насекомого в лучшем случае. Ищи в той нише, где может нафрилансить таракан.
>>1219168>Ищи в той нише, где может нафрилансить таракан.Бляяяя, чот проорал.
>>1219162Всё упирается в оптимизацию в таком случае. Не технология.
>>1219168Дроч на статистику никгда не давал больше пары процентов. Я видел как работали сети с десятком эпох, так что не надо.
>>1219128НЕ СМОЖЕШЬ.
>>1219266Я попытаюсь.
>>1219128Научи openai gym/universe чему-то интереснее арканоида. Теоретически эта ебань может управлять хоть чем в браузере, если есть ощутимый результат её работы в очках, баллах итд. Можно посмотреть как оно справится со ставками на спорт или бинарными опционами.
>>1219128нейросеть, имитирующая поведение человека в интернете при серфингеи сразу женейросеть, отличающая серфинг бота от человека
>>1219308И как это оно должно у него монетизироваться?
>>1219327Даже лень объяснять
>>1219308Збсь идея!>>1219327Автоматический слив рекламных бюджетов или наоборот - накрутка рейтингов всяких там блохеров.
>>1219337>Автоматический слив рекламных бюджетов Всмысле?
Какая же крутая эта штука дип лёрнинг, пока только вкатываюсь, но уже предвкушаю....!!
>>1219421> Какая же крутая эта штука дип лёрнингНу да, можно негров распознавать.
Есть бот для доты на нейросети, а есть ли такие боты для каэсика или других шутеров-дрочилен?
Анончик. У меня вот вопрос. Пытаюсь реализовать обучение машинки в юнити, едущей по трассе. Изначально была идея подбирать нейросеть используя генетический алгоритм. В общем я все это сделал, но мне кажется это не очень эффективно. Каким то другим методом можно натренировать машинку ездить по трассе? Только не копируя поведение машинки, управляемой мной. Я пытаюсь нагуглить, но не очень понимаю. Некоторые пишут про обратное распространение, но ведь в нем я сам задам как он должен повернуть в зависимости от инпута (три датчика расстояния перед машинкой). Но ведь это не то, к тому же я не хочу чтобы машинка при решении повернуть например влево, "крутила руль до конца влево". Сейчас она имеет два отпута. Один показывает вероятность поворота влево, другой вправо. Я нахожу разницу между ними - это и будет сколько и куда повернуть. Так вот ебать как нахуй по другому можно натренировать машинку, кроме как через генетический алгоритм и копирование поведения человека?
Весь машобчик кроме нейроночек мертв?
>>1219769Обучение с подкреплением этим занимается. Но судя по твоему посту у тебя нет шансов заставить его работать.
>>1219781Да.
>>1219769>как нахуй по другому можно натренировать машинку, кроме как через генетический алгоритм и копирование поведения человека?Никак. Это невозможно. Сам то поимаешь что просишь? Ты хочешь чтобы машинка каталась без эмпирического опыта или учителя? Такое возможно только есль у тебя нейросетть принимает гиперпараметры твоей игры, а не сама в ней существует.
>>1219857>кросс-валидация>не отложенная тестовая выборка
>>1209383Берёшь первый, умножаешь на второй. Только не перепутай
>>1219781> Весь машобчик кроме нейроночек мертв?Про него просто хипстеры не знают.>>1219822> Никак. Это невозможно. Сам то поимаешь что просишь? Ты хочешь чтобы машинка каталась без эмпирического опыта или учителя? А ведь ещё в нулевых гишпанцы подобное реализовывали на нечетких контроллерах. У них даже машинка была не нарисованная а реальная и софт для компиляции нечетких моделей в формат плисов на яве доступен свободно, xfuzzy. Фишка в том, чтобы расстояние до препятствия задать в виде нечеткого значения, исходя из которого можно правилом регулировать угол поворота колёс и скорость. Если при этом общее направление будет вперёд, то такая машинка вполне может ездить по круговой трассе, даже если перед ней расставлять новые препятствия. И никакого сойбойства с нейроночками, плисы и датчики расстояния до препятствия. Но кому это надо, на этом не заработаешь продажей видюх.
В чем суть нейроморфных процессоров? Там архитектура другая или как?
>>1220000Аппаратная реализация соотв. алгоритмов.
>>1220003А можно поподробнее?
>>1220015Ну там логические элементы имитируют нейроны и связи между ними. Что-то уровня сотни тысяч адалайнов пикрелейтед на одном чипе. Таких архитектур куча была разработана, даже на оптронике и оптических элементах. Смысла особого в них нет, т.к. все то же самое при желании можно сделать на ПЛИСах, что в разы дешевле, чем запускать целую аппаратную платформу, которая еще хуй знает как и когда окупится и окупится ли вообще. Алсо, даже и ПЛИСы это перебор, т.к. все работает на простых видюхах. Короче, технически это мб и интересно, но практической пользы никакой. Если интел и правда что-то такое раскрутит, ну респект им, че.
>>1220020Все понял. Немного странно, что один процессор за столько нейронов отвечает, я думал, что каждому нейрону свой, как там памяти вообще хватаетА еще, удивлен подходу Интелов, они даже в 1-м процессоре аж вот так решили сделать, зачем, чтобы облегчить вычисления, разве так станет быстрее?
Не получается симейком опенсв собрать под новую вижуал студио. Что делаю не так? Симейк делает нормально, проект в студии собирается с тысячами ошибок.
>>1220237Ошибка в том что ты используешь винду и студию. Перейди на инструмены предназначенные для программирования.
>>1219499на последнем датафесте рассказывали про хедшоты нейронкамиhttps://youtu.be/YSQqHlQwQDYхотя и не совсем то
>>1219290а еще МММ! и другие финансовые пирамиды!!! ХОЧУ, ЧТОБЫ НЕЙРОНКА ПРЕДСКАЗЫВАЛА НЕПРЕДСКАЗЫВАЕМЫЕ ВРЕМЕННЫЕ РЯДЫ И СТАТЬ БАХАТЫМ, А ТО НЕГРОВ ПРЕДСКАЗЫВАЕТ, РАК ПРЕДСКАЗЫВАЕТ, ЛЮДЕЙ НА ПЕРЕХОДАХ ПРЕДСКАЗЫВАЕТ И СБИВАЕТ, А НАСТОЯЩИХ ЗАДАЧ НЕ ПРЕДСКЗЫВЫВАЕТ, ТО ЛИ ДЕЛО ВАПНИК, ВСЕ АЛГОРИТМЫ ПРЕДСКАЗАЛ - И БИНАРНЫЕ АПЦИОНЫ И ВСЕ ЭТО С ПОМОЩЬЮ НЕТОЧНОЙ ЛОГИКИ
>>1219781в каггле деревья решают, нейроночки только для картинок и последовательностей
>>1220285Как область исследований деревья мертвы.
>>1220317согласен, поэтому искджибуст придумали только в 2016 году и уже успели от него отказаться в пользу lgbm
Начнём с того, что градиентный бустинг это следствие все той же теории статистического обучения Вапника, о чем у него прямо написано в книге, упомянутой в оп посте. Адабуст, дипбуст, хгбуст, лгбм итд это просто детали реализации, какая-то лучше, какая-то хуже. >>1220280Таблетки выпей, мань.
Здравствуйте, мне задали простую задачу на линейную регрессию. Дали данные, на картинке. Всё просто, есть значения Х и есть значения Y. Я значит такой довольный, закинул эти данные в Python'ский scikit learn и применил LinearRegression. И у меня получилось уравнение:y = 0,7x - 1414,79А правильный ответ вот такой: y = 0,51x + 142,9Короче, я облажался. Скорее всего значения иксов и игреков надо как-то нормировать или стандартизировать. И лишь после этого получится правильный ответ. Ну либо правильный ответ на самом деле неправильный.ПОДСКАЖИТЕ, ПОЖАЛУЙСТА, ГДЕ ПОСМОТРЕТЬ КАК НОРМИРОВАТЬ ИЛИ СТАНДАРТИЗИРОВАТЬ ПРАВИЛЬНО ДАННЫЕ ДЛЯ ПОДГОТОВКИ К ЛИНЕЙНОЙ РЕГРЕССИИ? Я ГУГЛИЛ, НО У ТУПОЙ И У МЕНЯ ВСЁ-РАВНО НЕ СОШЛОСЬ С ПРАВИЛЬНЫМ ОТВЕТОМ
>>1220646http://scikit-learn.org/stable/modules/preprocessing.html
>>1220646>y = 0,51x + 142,9>x - около 2000>y - меньше сотни
>>1220646>А правильный ответ вот такойПроигрунькал. Ты бы хоть читал, что ты пишешь.Очевидно, что тот кто писал правильный ответ использовал вместо иксов какую-то хуйню. Т.к. максимальный элемент игриков 90.7, а в правильной модели прибавляют 142.9. Т.е. там иксы должны быть отрицательными.
>>1220677Спасибо большое, пробую перевести и попробую применить эти вещи и посмотреть результат. >>1220678>>1220789Видимо, годы не принято подставлять как есть 1994, наверное, их как-то преобразуют чтобы они нормализовались, нормировались или стандартизировались. Но пока я не нашёл решения как принято года конвертировать в пригодные для линейной регрессии значения.И игреки, их, наверное, тоже надо преобразовать как-то.
>>1220789>максимальный элемент игриков 90.7Что-то мне кажется, что игреки тоже надо изменить. И там будет не 90.7, а какое-нибудь другое преобразованное значение.
У этих данных коэффициент детерминации 0.148. Линейная регрессия плохая модель. Попробуй НЕЙРОНОЧКУ с парой миллиардов коэффициентов. Покажи преподу КАК ТЫ МОЖЕШЬ.
Объясните эту картинку. Что обозначают синим и красными цветами? Граница что обозначает?
>>1220810> Объясните эту картинку. Что обозначают синим и красными цветами? Граница что обозначает?Синий и красный линейноразделимые классы, пунктиром - оптимальная граница, разделяющая классы (например, такую бы построила svm), сплошная линия - граница, построенная перцептроном.
Аноны, я вебмакака из соседнего треда, вопрос чисто из интереса, задавал его тут раньше, но никто не ответил, вдруг сейчас что-то поменялось. Есть ли какое-нибудь проект в ваших нейронках, который оптимизирует запросы ORM? По-моему очень полезная штука бы вышла
>>1220942>По-моему очень полезная штука бы вышла Так делай.
>>1220791
>>1220511ВСЕ СЛЕДСТВИЕ ЕВКЛИДОВСКОЙ МАТЕМАТИКИ11111 ОН ВСЕ ОПИСАЛ В СВОЕЙ МОНОГРАФИИ, ДОБАВЬТЕ В ОП-ПОСТ
>>1221195Все, что нужно знать человеку, сказал Платон. Эвклид и его шайка сойбоев, куколдов и хипстеров просто жевали собственные бороды, запивая их смузи.
Моча, почему бы этого>>1221350>>1221195>>1220280сасихуя хотя бы здесь не забанить? Толку со срущего шизика 0.
>>1221366Чувак, потише в этом треде. Во-первых, последний пост мой, я лишь пародирую шизика (нечеткого петуха, он же сойбой/куколд/хипстер). Во-вторых, нечеткий петух тут отвечает почти на каждый пост, из чего следует, что около половины постов во всех нейротредах его авторства. Увы, де-факто это его собственные, персональные треды, хоть он их и не создает. Это происходит годами. Я делал перерыв в тредах в несколько месяцев, когда сюда набежал шизик из /ссы и зафлудил все квалиа-бредом. Шизик из /ссы ушел в туман, а сойбой остался. Он как клоп, его никак не выжить. Остается смиренно ждать его смерти от естественных причин (мои уговоры совершить самоубийство не подействовали). Таков наш крест. Я с этим смирился, и тебе советую. Будем надеяться, он скоро начнет пить (судя по всему он подходит к питейному возрасту), тогда ему станет не до нас.Во избежании неконтролируемого роста обсуждения персоны куколда, нужно соблюдать одно простое правило: никогда ему ничего не отвечай, вообще игнорируй его существование, как будто его постов нет. Отличить их очень просто. Даже на этот пост не отвечай. Хипстер ответит, а ты молчи. Тренируй силу воли.
>>1221388> Будем надеяться, он скоро начнет пить (судя по всему он подходит к питейному возрасту), тогда ему станет не до нас.По бате своему судишь? Мне-то зачем пить, я ж не русич какой и не финно-монголоид. По делу от тебя и тебе подобных внятной критики пока не поступало, только шиза и кукареканья.
Распознавание изображений. На чем делать? Тензорфлоу и Пайтон или что-то другое?
>>1221488Keras и python.
курсы на coursera от яндекса стоит смотреть?
>>1221512Лекции оторваны от практики, будут дрочить абстрактную хуйню и теорему Каруша-Куна-Таккера. В практических заданий много технических проблем.По-моему такие курсы только отобьют желание что-то дальше в этой области делать.
Легко распознавать текст, когда он - единственное, что есть на изображении. А что делать, если он может быть непонятно где, под любым углом и любого размера? Как например автомобильные номера. Что обычно делают в таких случаях? Тренируют отдельную сеть, которая находит номер(а) на фотке, потом скармливают уже той, что должна их распознавать?
>>1221593Или я к примеру хочу идентифицировать по лицам всех людей на групповой фотографии. В этом случае ведь тоже, наверное, нужно найти непосредственно лица на фотографии, а потом уже пытаться их идентифицировать? Или как это вообще делают в реальном мире?
>>1221597Номера можно, скорее всего, end-to-end распознавать, если у тебя одна машина на картинке. Особенно хороши модели с вниманием, они сами найдут релевантный участок. Это почти наверняка будет точнее, чем в два шага искать.>>1221597Людей, конечно, придется сначала разделить.
Недавно спрашивали, могут ли нейроночки в ФПС. Вот, пожалуйста: https://deepmind.com/blog/capture-the-flag/Боты рвут атцов в кваку на рандомно сгенерированных картах.https://www.youtube.com/watch?v=dltN4MxV1RI&feature=youtu.be
>>1222093А когда для каэсочки такое будет, с этого можно что-то поиметь? Ну там удаленно соревнование выиграть?
>>1221593>>1221597http://machinethink.net/blog/object-detection/
>>1222093>рвут атцов в квакуТы сам-то видео смотрел? На кваку это похоже ну очень отдалённо.
>>1222463Шутерок набросали на быструю руку, какая разница какой в нем графен? Теперь можно прикрутить хоть кваку, хоть каэсочку, хоть что-угодно подобное.
>>1222510разница не в графоне
Запилите уже утилиту делающую из сканов книг полноценную книгу в разных форматах.
Анончик, еще раз привет. Я тот анон, что недавно вкатился и всё таки написал нейросеть для XOR. Так вот недавно я переписал почти полностью весь код, так чтобы можно было сделать многослойную сеть (до этого был только один скрытый слой). Я задаю два скрытых слоя по 8 нейронов и у меня среднеквадратическая ошибка доходит до 0.1 и не опускается. И то на это нужно не меньше 10000 эпох, при датасете из 8 элементов (XOR для трех элементов). Я не понимаю в чем проблема. Сомневаюсь что в коде, потому что если я задаю один скрытый слой, то всё считается как раньше (грубо говоря за пару тыщ эпох средкв. ошибка доходит до 0.001). В чем может быть проблема?
>>1222756Забыл еще вот прикрепить график средкв. ошибки. Собсна по ординате сама ошибка, по абсциссе кол-во эпох.
>>1222725Собрал. Что дальше?
>>1222761В личку мне их скинь, я тебе напишу сканнер дла книг.
>>1222758А вот при одном слое в 8 нейронов.
Опять анон с XOR. В общем я попробовал использовать релу, а не сигмоид. Сначала поставил скорость обучения 0.01 (первый пик). Потом поставил 0.001 и повторил (второй пик). Ну ебать, чо хочу сказать, MSE конкретно уменьшилась, хотя эпох дохуя правда. Оно походу даже переобучилось.
>>1222717Google Docs для мобильных может сканировать документы.
Как из формулы гиперболического тангенса можно вывести 2сигма(2х) - 1???
>>1220153Интересные у тебя пикчи, анон, это откуда?
>>1222849Где? У меня нет такого
>>1216442
Нейро-Анонимусы, поясните как выбирать правильное количество слоёв и нейронов при обучении нейронной сети для наиболее качественного результата. Посоветуйте мануалы/видео/сайты с инфой по сабжу.Интересует создание походки и анимаций для виртуальных существ произвольной формы. Алсо, какие алгоритмы обучения нейронных сетей лучше всего подходят для этой задачи, кроме Генетического?
>>1223143>как выбирать правильное количество слоёвЧем больше, тем лучше.>какие алгоритмыReinforcement learning.>походкиЭто много кто делал, в общем случае довольно трудно для 3д, для 2д ок.>анимацийТут непонятно как ты оценивать будешь.
>>1223146>анимаций>Тут непонятно как ты оценивать будешь. Анимаций имелось в виду готовая анимация походки например.>Чем больше, тем лучше.А сколько нейронов в каждом слое? Где вообще можно узнать хоть какую-то инфу про то, насколько количество слоёв и нейронов в них влияет на скорость и качество результата?Например если я сделаю 1 скрытый слой с тысячью нейронов, в чем он будет лучше/хуже сеть с 4 слоями по 10 нейронов в каждом? Где-то можно примеры посмотреть как количество слоев или количество нейронов в слое влияет на результат.
>>1223163> Где вообще можно узнать хоть какую-то инфу про то, насколько количество слоёв и нейронов в них влияет на скорость и качество результата?Нигде, это чистое шаманство, т.е. гиперпараметры, зависящие от поставленной задачи. Еще у Хайкина написано, что это больше искусство, чем точное знание.
Картинка аргументируется в функцию, в функции рекогнайзится и на экран название (из листа классов) и вероятность выводится. Нужно обвести прямоугольником совпадения. Как это сделать? Инпут изображение в виде vector, из нейронки что выходит? На выходе тоже vector. Как это там хранится? Как достать границы каждого совпадения?
>>1223199Берёшь код какой-нибудь йолы (под твой фреймворк), изучаешь.
>>1223163Это все сильно зависит от задачи и данных. В целом сеть не может быть слишком большой. Пробуй разные варианты.
>>1223229С одним элементом работает. С несколькими не работает.
>>1223261С картинкой самолета скопированной несколько раз на одном изображении результат был веб страница и дверь. Один самолет нормально детектит.
>>1223261Ты взял одну из моделей, предназначенных для исследования нейроночек, а не для использования. Она натренирована на данных, где всегда один объект в кадре, и только на таких данных она будет работать.Тебе уже сказали - бери YOLO.
Deep Learning: A Practitioner's Approachхорошая ли книга?Писать логику планирую на Scala и Java, Питун не желателен, ибо будет Спарк, который любит JVM,Не устарела ли эта pdf ка?http://opencarts.org/sachlaptrinh/pdf/27976.pdfСтоит ли потратиться на бумажную версию на русском?
>>1223284Хорошая книга в шапке. Про твою не знаю.
>>1223265Видео делает со скоростью 1 FPS. Не аппаратно можно ускорить? CPU only.
>>1223365Все можно. Есть варианты с т.н. конденсацией, или сжатием нейроночек, которые из большой делают маленькую и, соответственно, быструю. Но это уже все самому надо делать.
Почему результат разный? Почему одну картинку не распознала?
>>1223368Почему всегда при загрузке программы занимает >900 mb в оперативной памяти? Не важно вход с камеры, видеофайл или одна картинка. Весь вес сразу загружается? Из-за этого? Это маленький пак. А если большой делать?
>>1223368>Почему результат разный?хуёвый алгоритм.> Почему одну картинку не распознала?хуёвый алгоритм.> Почему всегда при загрузке программы занимает >900 mb в оперативной памяти? Не важно вход с камеры, видеофайл или одна картинка. Весь вес сразу загружается? Из-за этого? Это маленький пак. А если большой делать?хуёвый алгоритм.хуёвый алгоритм.хуёвый алгоритм.хуёвый алгоритм.
>>1223367>сжатиемФункцию активации менять? В этом дело?
>>1223373Нет.>>1223368Какого рода ответ ты хочешь услышать? Ну просто для примера приведи свой вариант.
>>1223368здесь ответ на твой вопросhttps://arxiv.org/abs/1805.12177
>>1223230>Это все сильно зависит от задачи и данных. Я же описал задачу - походка для виртуального существа произвольной формы.>Нигде, это чистое шаманство, т.е. гиперпараметры, зависящие от поставленной задачиДля задачи генерации походки для трехмерного/двухмерного персонажа. Есть какой-нибудь сайт, на котором можно найти примеры нейронных сетей для подобных задач, чтобы посмотреть какие сети успешно использовались для этой задачи?
>>1223565Arxiv, Google scholar, research gate
>>1223565https://github.com/MorvanZhou/Reinforcement-learning-with-tensorflow/blob/master/experiments/Robot_arm/DPPO.pyhttps://www.crowdai.org/challenges/learning-how-to-walk/leaderboards
>>1223616>>1223578пасибо!Но всё же, кроме шаманства, есть хотя бы примерное представление, чем отличаются нейронная сеть с 1 слоем в 10000 нейронов, и сеть из 5 слоёв по 10 нейронов?Может быть хотя бы известно, для какого типа задач лучше подходит меньше слоев, но больше нейронов, а для каких наоборот?
>>1223664если на пальцах, если добавишь много слоев, до градиенты будут в ноль уходить просто из-за школьной арифметики, так как много дробей умножаешь друг на друга. Также, когда много слоев, легче переобучиться, нужен добавлять больше регуляризации. Плоские сети вычислительно сложные (просто больше нейронов-функций). И на философском уровне (как обычно показывают на картинках) сложно выделить составные фичи из предыдущих нейронов (XOR). Еще в разных задачах бывает полезно делать узкие места, где последующий слой меньше предыдущего, мол уменьшаем размерность, приходится нейронке выделять фичи, а не запоминать просто вход. Так, как на другой известной картинке, лучше всего делать столько слоев, сколько можешь, пока оно не переобучается. Добавляешь регуляризацию. Так и добавляешь слои, пока не достанешь до неба и даже Аллаха. Длины слоев я бы, скорее, по размерности входа ориентировал. Реинфорсемент лернинг никогда не делал вообще, там много своих камней.
>>1223691В РЛ, если ты не гугл, делают сети поменьше обычно. В атари, ЕМНИП, стандарт 1 небольшая свертка и 3-4 слоя по 100-200 нейронов. Одна из мегафишек альфазеро была в том, что они умудрились натренировать в РЛ огромную сеть (затратив какие-то миллионы процессорных лет).
Queen moves56Knight moves8Underpromotions9Поясните, зачем так много плоскостей для описания ходов королевы? Нельзя ли одну плоскость только юзать?
>>1223701Можно все что угодно, вопрос в том что работает лучше. Скорее всего, много плоскостей работают лучше, т.к. сети не приходится тратить усилия на расшифровку входных сигналов.
>>1209084 (OP)>линейная алгебра, теорвер и матстат, базовый матан calculus многих переменныхВ каком порядке это все изучать?Умею находить производную, знаю что такое матрица и предел.поступаю в вуз на математическую специальность, хочу узнать совета
>>1223728Того, что тебе на первом/втором курсе расскажут, вполне хватит для начала.Если ты чисто на математика поступаешь, то сложности скорее с программированием будут. Но его в вузе нормально всё рано не дадут, так что учи сам.
>>1223691Что лучше для генерации походки - Генетический алгоритм или Реинфорсемент лернинг ?>>1223698>атариТы про старый компьютер из 80-х годов прошлого столетия? Откуда там нейронные сети?
>>1223772> Ты про старый компьютер из 80-х годов прошлого столетия? Нет, он про игры для атари, которые традиционно используются для тестов RL.> Что лучше для генерации походки - Генетический алгоритм или Реинфорсемент лернинг ?РЛ чисто теоретически должен быть лучше. Как минимум, быстрее будет обучаться.
Кстати, давно не слежу за модой в этой области - дипРЛ. Раньше самые топовые алгоритмы были у Маска Небоходца - openai gym/universe. Сейчас что-то лучше придумали?
>>1223781> Раньше самые топовые алгоритмы были у Маска Небоходца - openai gym/universe.Ты чумачечий? openai gym/universe это наборы сред для тестирования алгоритмов RL. В стандартную поставку раньше ни один алгоритм собственно RL не входил. Относительно недавно они сделали RL Baselines, или как-то так, где якобы правильно реализованы несколько топовых алгоритмов, но и эти алгоритмы изобретены не ими, они просто реализации выпустили. Они занимаются и алгоритмами тоже, но грандиозного успеха на этом поприще пока не было. Вроде бы они сделали бота, который хорошо играет в урезанную версию Dota, но это не оупенсорс.Вопрос "какой алгоритм самы лучший" ответа не имеет, во многом потому что они все довольно-таки плохо работают, и еще потому что каждый автор тянет одеяло на себя, утверждая что он лучше других, хотя зачастую это не так. Сами алгоритмы нестабильны, сходятся 1 раз из 20. Соревнование по созданию этих алгоритмов выродилось в абсурдную игру "у кого больше ресурсов перебрать гигантское количество гиперпараметров и вытянуть счастливый билет, перекрывающий SOTA" На реддите это обсуждалось пару месяцев назад, народ был недоволен плачевным состоянием этой области.
>>1223780>РЛ чисто теоретически должен быть лучше.В принципе да, потому что РЛ использует больше данных о задаче. Но гарантий нет, доказательство сходимости к оптимальной стратегии только для таблиц, и то там нужно бесконечно много раз посетить каждое состояние и каждое действие из него.>Как минимум, быстрее будет обучаться.А вот тут не факт, были статьи показывающие что evolutionary strategies как минимум не намного хуже, а вычислительно гораздо лучше, т.к. не нужно вычислять градиенты.
>>1223707А куда плоскости для пешек, короля, ладей, слонов делись? И почему коню только 8 плоскостей а не 16, если коней 2 шт.
>>1223802Ты меня спрашиваешь, лол? Я вообще не знаю, откуда ты это вытащил. Там же и ищи объяснения конкретных деталей. Я тебе общие соображения привел.
>>1223416>https://arxiv.org/abs/1805.12177Спасибо.
Мне python неудобен. Есть реализации тензорфлоу на C++?
>>1223990https://github.com/tuotuoxp/cpp-torch
Еще раз объясните. Туда массив, оттуда 1 или 0. Опыт хранится в другом массиве. Верно?
>>1223802кто-то пояснить может по этому нюансу?
>>1224137>>1223701Так у королевы возможных ходов гораздо больше, чем у короля. Сядь с досой и посмотри. Отсюда и числа.
>>1224137Причины индивидуальны для твоего алгоритма, экстрасенсы, эсперы и Deus ex Machina в отпуске.
>>1224142>>1224143Ну, отсюда же взято https://arxiv.org/pdf/1712.01815.pdfИ по логике для короля должно быть 8 плоскостей, хотя этого нет.
>>1224142Король может сходить на одну клетку в каждую сторону => 8 возможных ходовКоролева может сходить на одну клетку в каждую сторону, на две клетки в каждую сторону, ...
>>1224145>>1224146Тут тебе дело говорят. Может тебе эрудицию поднять немножко сначала, комбинаторику там, а потом уже в нейроночки лезть?А то ведь как получается - ты пытаешься решить задачу из какой-то области используя нейронки, не зная ни области, ни нейронок.
>>1224164Наркоман, что ли?
Сколько итераций нужно чтобы обучить нейронку реагировать правильно? При каком условии считать что алгоритм не работает?
>>1224394Алгоритм "работает" если его результаты тебя устраивают. Чуть более формально - если результаты лучше случайных.Обучение нужно прекращать после того как N итераций подряд дают улучшение результата меньше эпсилон. Не становится заметно лучше - значит обучилась. Для дешевых вычислений нужна большая N, для дорогих - относительно маленькая.
>>1224419>меньше эпсилон
Что есть для R по типу anaconda/jupyter?
>>1224789Jupyter c кернелом R
Объясните bias. Как его определить правильно?
Почему bias на каждой строчке в слое ставят разный?
>>1224838>>1224842https://stackoverflow.com/questions/2480650/role-of-bias-in-neural-networksВкратце, каждый слой должен найти такой а чтобы получить выход y = ax + b примерно равный ожидаемому. Получается, а в уравнении это веса слоя, а b это bias.
Bias это смещение. Почитайте хоть педивикию про линейные функции, точнее аффинные, не проходящие через начало координат. Вот это смещение и есть bias.
На хабре есть пара статей:https://habr.com/post/312450/https://habr.com/post/313216/годно для вхождения или хуита?
>>1224867Вроде написано правильно и это нужно знать, но ответ на твой вопрос зависит от того насколько глубоко ты хочешь войти. Это первые полторы страницы очень толстого учебника.
>>1224145Все оказалось банальней. Остальные ходы скрываются в плоскостях королевы.
>>1224868Хочу попробовать написать нейронку для парсинга текста в одной ммо-дрочильне со скриншотов экрана.Пользовался специализированными библиотеками вроде tesseract, результат сомнительный. Хочется сравнить действенность.
>>1224895Тоесть, задача стоит такая - на скриншоте в заранее известной области появляются символы на 100% совпадающие с символами из тренировочного сета, особенно если не будешь делать скришноты на фоне сливающемся с текстом? Используй попиксельное сравнение, Люк. Можешь даже прикрутить что-то вроде https://en.wikipedia.org/wiki/Cross-correlation#Normalized_cross-correlation
>>1224895у тебя тессеракт какой версии, если не 4ая - еще раз попробуй с 4ой. Говорят, что с 4ой более-менее распознает нормально, ну, и там обученная LSTM нейронка. Ну, и да, как говорит >>1224897тут и без нейронок можно обойтись, а результат будет 100%
>>1224897Не, там есть эффект искажений текста из-за прозрачности, а под прозрачностью всякая мимобегающаю игровая хуита.+ Цвет текста меняется время от времени. Пытался нормализовать его матрицами к серому, каждый раз получается немного по разному.Короче хочу нейронками попробовать.
>>1224941Покерскрапер?
>>1224789Sweave, knitr.
Ой гевалт! Тензорфлоу не встаёт на винду ;_;
>>1224867Хабр - ёбаная помойка. Забудь про него.>>1225097Ты дурной, что ли? Ставь линь и не выёбывайся.
>>1225097на работе пока не поставил линукс, поставил через анаконду (у меня еще и прав администратора не было) + какой-то там длл с++ редистрибьютабл требуется для тензорфлоу
Нужно графически представить нейронку. Входной слой, скрытый, выход. Их 200. Как сделать так чтобы экрана хватило?
>>1225125Маленькие кружочки.
>>1225125(Входной слой, скрытый, выход) x 200
>>1225136Можно ли нейросеть представить в виде куба или сферы?
>>1225097Всё он встаёт. Даже с GPU работает нормально.
Я вывел на экран почти все значения переменных которые есть в коде, но до сих пор не понимаю как это работает.Картинка 200 на 200, ресайз 50 на 50. Для чего ресайз?Вход, скрытый слой, выход. От входа до скрытого learning rate. От скрытого до выхода второй learning rate. В комментариях написано, что bias нет. Что это за значения? Они есть в умножении веса.Как создать bias? Это константа или формула? Куда его вставлять: до функции активации или куда? Активация: если скалярное произведение с нодов меньше ноля - умножить на 0,01, если больше ноля - ничего. Это правильно?
>>1225392Неправильно. Читай книги сначала, рано тебе код трогать.
>>1225393Сигмоида и тангенс сильно нагружают процессор?
>>1225398Да, именно поэтому нужна мощная видеокарта.
>>1225392Попробуйте представлять bios как дискретную монаду. Мне это сильно облегчило понимание в свое время.
>>1225424> Попробуйте представлять bios как дискретную монадуКакая блядь мандада, это просто смещение функции от центра координат. Аффтнный вариант дискретной функции нарисовать с разными смещениями, вот и будет понимание что это и зачем. А потом просто понять, что это касается не только линейных функций. Блядь, да это в школе проходят, что с вами не так, что вы машоб пытаетесь понять начав не с начала, а с диплернинха, а простое смещение функции - через мандадки какие-то, прости господи.
>>1225427> дискретной функции Линейной. Аффинный вариант. Аж трясет с вас, по буквам не попадаю.
Сегодня тут редкостный карнавал тупости. День удался.
>>1224419>2018>не использовать early stopping
>>1225437Раннее останавливае - хуйня для даунов. Отличный показатель, что модель работает хуй пойми как. То сходится, то не сходится, то высокая точность, то поебень.Таки проблемы иначе решают, а не просто останавливаются.
>>1225427> не может в категорность> учит кого-то дип лернингу
>>1225443> не может в категорностьЧто там мочь-то, школоилитарий? Стрелочки рисовать любой клоун может. Речь не об этом. Какая нахуй категорность, там простого матана и линейной алгебры более чем достаточно. Думаешь, илитка дохуя, раз про мандадки прочитал? Это ничего не добавит к пониманию диплернинха, только ненужного аутизма добавит в нотацию.
>>1225437> 2018> в посте буквально описывается validation-based early stopping> макака этого не знает потому что просто использует функции кераса без понимания>>1225439Точно, зачем нужна регуляризация, если она портит показатель? Будем переобучать по полной, чтобы все однозначно сходилось и давало высокую точность на тренировочном наборе, потому что реальные задачи для задротов, а не таких просвещенных датасаентистов как мы.
>>1225437Что есть ошибка в обучении? Если на выходе нули?
>>1225492Разница между ожидаемым и полученным значением.
>>1225467Нет, зачем нужно думать над регуляризацией, оптимизировать архитектуру, если можно просто сказать, мол похуй, выкинем половину итераций и скажем, что так и задумано.
>>1225526Так и задумано, быстрее и дешевле.
Ребята , нужен совет. Сам студент меда, когда изучал офтальмологию, дико подсел на нейрофизиологию зрения, а именно, каким образом мозг распознает изображение.На ватмане для себя рисовал соединения между разными нейронами. Потом сам понял, что на этом завязаны современные нейроночки. Теперь вопрос: стоит ли мне изучать отдельные яп , перед вкатыванием в нейронки, либо взяться за математику и потом сразу нейронки и мл? В программировании чуть больше, чем 0. з.ы. И что с медом делать? дропать или нет, если очень хочу заниматься нейронками, но универ отнимает много времени?
>>1225569Продолжай учёбу на медика. Будешь круче чем толпа индусов работающих за копейки без образования медика.
>>1225570а по поводу первого вопроса?
>>1225569> На ватманеМайнд-карты твои лучшие друзья, попробуй хотя бы freemind.По языкам тебе достаточно одного питона, сам по себе он очень простой, на курсере есть цикл курсов, которого вполне достаточно. Конечно, практика была бы очень полезной, но можно и сразу вкатываться в нейронки, анализируй чужой код и не ленись переписывать и оптимизировать. Хороший тон для работы с таблицами сразу начать пользоваться pandas. Первые нейронки можно собирать по слоям используя keras, до этого можно поиграться с готовыми моделями из sklearn. Само программирование здорового человека это математика английскими словами.Времени и сил сожрет огромное количество, скорее всего ты вылетишь из универа, разорвешь все социальные контакты и все твои увлечения сведутся к нейронкам и их применению везде. Но если ты миленький, то я могу подумать над тем чтобы забрать тебя себе и только себе <З
>>1225569Тебе не ЯП нужны, а программирование вообще, все что с этим связано. Без умения кодить ты будешь как слепой, пытающийся стать художником.
>>1225570>>1225575>>1225585Всем большое спасибо за советы.
>>1224145Как на TensorFlow проектировать сети(создавать вне скрипта или программы в текстовом файле), инициализировать начальные веса, обучать и сохранять и считывать для дальнейшего обучения или прогона? И да, делать все это на C++ и Delphi, а не на Python. Считывать pb модель и так уже знаю как, но ее я скачал готовую, а не проектировал и обучал сам.
>>1225585> Без умения кодить ты будешь как слепой, пытающийся стать художником.Хуйню несешь, например. Достаточно понимания математической нотации, в которой обычно описывают нейроночки. Кодят пусть индусы в гугле. Если понимаешь, что вообще происходит, умения кодить хватит на уровне импорт слесарьплов ас сп.
Siraj Raval - The Math of Intelligencehttps://www.youtube.com/playlist?list=PL2-dafEMk2A7mu0bSksCGMJEmeddU_H4DSiraj Raval - Intro to Deep Learninghttps://www.youtube.com/playlist?list=PL2-dafEMk2A7YdKv4XfKpfbTH5z6rEEj3Как вам этот индус?
>>1225747Как земля. После него, наверное, и приходят в тред с охуительными вопросами.
Парни, в numpy есть функция split, которой можно[1, 2, 3, 4, 5, 6, 7, 8, 9]разбить на чанки[[1, 2, 3],[4, 5, 6],[7, 8, 9]]Есть ли простой способ разбить на[[1, 2, 3],[2, 3, 4],[3, 4, 5],...[7, 8, 9]]???
>>1225784Используй сплит несколько раз со смещением, потом склей результаты.
>>1225784Есть. Это называется "матрица Ганкеля", Hankel matrix, гугли. Есть на каждом углу, не думаю что пистон исключение.
К слову, обратный вариант - матрица Теплица, Toeplitz matrix, используется для сдвига окна по изображению в сверточных нейроночках, strade вроде это называется.
у кого то есть опыт использования нейронок в биологии? мб кто знает, что именно происходит в insilico medicine?
Машинлёрнеры, как вам не надоедает ЖДАТЬ, ЖДАТЬ, ЖДАТЬ? Особенно когда ждать надо не час, а минут 5-10 и ты постоянно ещё проверяешь, как там оно, досчиталось ли.Какой самый простой способ получать оповещения об этом? Можно наверно в конец кода дописывать запуск какой-нибудь мелодии, но на Кэггле это не очень просто реализовать.
>>1225849Пусть постит статус в жаббер же, или чем сейчас пользуются люди там где светит солнце.>>1225825Скачиваешь датасет с дескрипторами молекул (или SMILES из которых вытягиваешь дескрипторы) и активностями в экспериментах. Прикручиваешь к старому проекту по распознаванию MNIST. Все, ты занимаешься драг дискавери.
>>1225849Это стиль жизни. Читай что-нибудь, реализуй новые фичи, оптимизируй, рефактори код в это время.
Товарищи, какие вузовские предметы считаются профильными для машоба и дата саенс?Для некоторых стажировок требуются высокие оценки по профильными предметам, но конкретно предметы не указываются.
>>1225861Линал, твимс, немного матана.Вообще, странное требование. У меня, например, на сессии иногда никакого желания выдрачивать кучу формулировок теорем не было, потому тройки хватал. А как ты с практикой справлялся - на это всем просто похуй. средний студень довольно тугенький в этом плане, а я не в шараге (по меркам России) учился
>>1225870Спасибо. Согласен с тобой, но вот у сбербанка с его сберсизонс такие вот требования.
Недавно тут спрашивали про РЛ. Вот блог пост в двух частях, где высказывается точка зрения, что meta/zero shot/few shot learning это будущее РЛ, к которому мы должны стремиться. Бонусом роскошная подборка статей на тему в конце второго поста:https://thegradient.pub/why-rl-is-flawed/https://thegradient.pub/how-to-fix-rl/
Кто-нибудь использует нейронки в продакшене? Какими фреймворками пользуетесь?
>>1225861Анализ данных, машинное обучение, нейронные сети, компьютерное зрение.
Кто-то в C# разбирается? Почему тут метод FromSavedModel назван статическим, но нигде не указано что он статический?https://github.com/migueldeicaza/TensorFlowSharp/blob/1e3ddefde15dd281b993c7bf3d9ea351b5ad4178/TensorFlowSharp/Tensorflow.csНе понимать. Логически-то он да - статический и конструктор вызывает и все такое. Но я нигде чет не найду такой спецификации C# что он автоматом может определять статический метод или нет.
>>1225898>Почему тут метод FromSavedModel назван статическимГде тут?>не найду такой спецификации C# что он автоматомЕе нет.Делай на питоне, не морочь себе голову.
Короче, имеется степень бакалавра в теорфизики: дифгем, теория поля и прочая залупа, в которой я шарю в принципе. Начал проходить курс на степике по нейросетям на днях, скоро пройду. Походу дела освежаю знания матстатистки. Что еще нужно подучить, чтобы взяли джуном на позицию data scientist'a? на hh стабильно 15 вакансий в ДС весит.Спасибо
/// This creates a new context to execute a TFGraph. You can use the /// constructor to create an empty session, or you can load an existing/// model using the <see cref="FromSavedModel"/> static method in this class.
>>1225919Комент не обновили при рефакторинге.
>>1225797Так. А вот теперь объясни в чем отличие этого от bias, если bias представлять аффинную функцию.
>>1225898Ты какую-то хуйню написал.
Хочу вкатиться в машоб. Стоит ли ждать когда пройду курсы тервера и матстата или будет полезно вернее будет ли в этом смысл? заранее начать изучать тему?
>>1225951> Так. А вот теперь объясни в чем отличие этого от bias, если bias представлять аффинную функцию.Во всем, например. Bias это коэффициент сдвига функции от начала координат. Матрицы Ганкеля и Теплица - это варианты представления датасета.
Если после нескольких тысяч итераций результат почти никакой, то считать это неработающей программой? Или подождать сутки? У модных популярных блоггеров на 6 итерации идеальные результаты.
Увеличиваю вес - они умирают, оставляю рекомендуемый дефолт - вообще не работает.
>>1225971Смотря на чем считаешь, какой датасет, архитектура, гиперпараметры, как ты обучаешь, etc. Если это что-то стандартное вроде Iris/MNIST, то ты где-то ошибся точно. Если ты настакал слоев и ждешь что это даст сразу 100%, то попробуй для начала прогнать на одном слое и посмотреть обучаемый ли он, или как ты.
>>1225569>Потом сам понял, что на этом завязаны современные нейроночки.Вот нет. Свёрточные нейросети заимствуют некоторые идеи из настоящих, отвечающих за зрение, но в целом это совершенно другой механизм по сравнению с человеческим мозгом.Программирования для МЛ много не нужно, только знать Питон более менее нормально.>з.ы. И что с медом делать? дропать или нет, если очень хочу заниматься нейронками, но универ отнимает много времени? Дело твоё конечно, но мне кажется, что лучше податься в офтальмологию (не знаю, как у вас там это устроено) и изучать естественные нейросети, потому что есть вероятность, что окажется, что математику и программирование не так просто самому осилить, твои познания в нейрофизиологиии зрения малоприменимы и вообще это всё имеет сомнительное отношение к тому, чем ты хотел заниматься.
>>1226114Не старайся, у него есть девушка.
Есть идея проанализировать сырые данные по доте2 по различной инфе которую можно спарсить. Нужны люди кто хочет этим позаниматься как хобби, пара часов в неделю. Желательно знать python или R. Подробности в телеге @Vladimirrus
>>1226148> Подробности в телегеОставь мыло или токс.
>>1226148> Есть идея проанализировать сырые данные по доте2 по различной инфе которую можно спарсить. Есть датасеты же готовые по ней. Даже конкурс на кегле был. > Подробности в телеге @Vladimirrus+15
>>1226148>пара часов в неделюДалеко уедешь, ага.
>>1226154[email protected]>>1226155знаю про датасеты, и про конкурс на кегле, хочу свой датасет, потому что существующие не описывают всех механик >>1226157Это всё опционально, возможно больше, просто нужно какое то количество людей для обсуждения и разбора существующих подходов.
>>1226148Перед тем как я скачаю эту вашу телегу, ты случайно не топишь за Путина?
>>1226185Причём тут путен? мы не политику обсуждаем, я же оставил мыло, пиши на мыло если удобно, если будет много людей, выберем удобный для всех мессенджер.
>>1226185А чем тебя Путин не устраивает, а? При Ельцине даже 80% на MNIST получить могли, а сейчас при Путине любой даун как минимум 98% получает.
>>1226186При том что поиск по твоей телеге выдает ватные ссылки. Мало ли, вдруг ты под санкциями.
>>1226189Врешь, пес лахтинский, 80 можно даже линейной регрессией на бумажке посчитать.
На завтрак у нас сегодня очередная порция критики современных исследований нейроночек: https://arxiv.org/abs/1807.03341>In this paper, we focus on the following four patterns that appear to us to be trending in ML scholarship: (i) failure to distinguish between explanation and speculation; (ii) failure to identify the sources of empirical gains, e.g., emphasizing unnecessary modifications to neural architectures when gains actually stem from hyper-parameter tuning; (iii) mathiness: the use of mathematics that obfuscates or impresses rather than clarifies, e.g., by confusing technical and non-technical concepts; and (iv) misuse of language, e.g., by choosing terms of art with colloquial connotations or by overloading established technical terms.
>>1226208>failure to distinguish between explanation and speculation>failure to identify the sources of empirical gains>mathiness: the use of mathematics that obfuscates or impresses rather than clarifies>misuse of languageВсё идёт по плану. Гранты крутятся, бабосы мутятся. Получил, купил ПО, написал пейпер с красивой презой, попиздел перед хомячками, молодец, иди за следующим.
>>1226208Сойбои совсем скатились, уже пейперы пишут про то, как не надо писать пейперы про нейроночки.
Поясните за arxiv. Туда любой Васян может свою публикацию выложить? То есть не известно вообще, появится она потом в каком либо журнале или это хуита на бумаге, которую никто никогда не опубликует?Или как это вообще работает?
>>1226226Да, это препринты без модерации, доверять 100% нельзя.
>>1226226>То есть не известно вообще, появится она потом в каком либо журнале или это хуита на бумаге, которую никто никогда не опубликует?Да.>Туда любой Васян может свою публикацию выложить?Нет.
Снова анон из меда. Обдумал еще один вариант : т.к у меня родители в Германии, а сам я в сверхдержаве (Украине) , есть возможность после универа уехать туда и получать второе высшее , уже связанное с нейроночками. Подводные вижу : 1)Трата еще 2 лет на окончание меда 2)Закончу там бакалавриат в 27, не поздно ли? Что думаете?
>>1226259>Что думаете?в гермахе медики хуево зарабатывают? нейронки это тупик.
>>1226234> >Туда любой Васян может свою публикацию выложить?> Нет.Как это нет? А кто?
Нейроночка проходит IQ тест (лучше чем ты): https://deepmind.com/blog/measuring-abstract-reasoning/
>>1226267Ну точно не ты, например.
>>1226226https://arxiv.org/ -> About arXiv>>1226267Может выложить кто угодно, но там есть модерация и submissions to arXiv should conform to Cornell University academic standards
>>122625927 в Германии не много точно. Но на фига тебе из меда в cs перекатываться? Заканчивай мед, сваливай в Гермашку, проходи переаттестацию, работай врачом,... Профит.
Гугловские модели учатся за час-два. Результат очень хороший. У меня 7 часов, более 5 тысяч итераций. Результат: не случайный, но не работает как должно работать. Что делать? Загрузил 4 экземпляра программы с разными настройками. Ошибки разные между ними. Но почти не грузит систему. Может в одну эпоху засунуть прогон по 4 алгоритмам на разных настройках? В одном вайл: один -> запись, второй -> запись, третий -> запись, четвертый -> запись. Настройки какие разные? Есть дропаут, нет. Есть рандом в следующем действии, нет.У меня нет друзей, кроме интернета. Мне негде больше спрашивать. Что делать? Я не понимаю где модель ошибается. В любой другой программе я сделал бы брейкпоинт и по шагам нашел бы ошибку. Тут так не сделаешь.
>>1226259Мед в сраной это выкинутые на помойку годы твоей жизни. Украха скорее всего тоже, хотя тут ты лучше меня должен быть осведомлен. Судя по твоим вопросам и месту, где ты их задаешь (ты вообще осознаешь где ты сейчас находишься?), никаких успехов на нейронном поприще ты не добьешься.
>>1226269Илитарии в треде.
>>1226273>Я не понимаю где модель ошибается.Значит, она не ошибается. Может это ты ошибаешься?
>>1226276Не, я тож не могу ((
>>1226268Теперь подсунь ей тест на которых она не обучалась
>>1226284А на чем её тестировали по-твоему?
Вот бы этот iq тест выше приспособить как капчу.
Почему PCA из sklearn стабильно выдает двухмерный график в виде всех точек слившихся в одну линию + одна точка сбоку? Как исключить эту точку или пофиксить.
Насколько реалистично чтобы разные модели, например, простая многослойная нейроночка и рандом форест, классифицировали по примерно одинаковым фичам? Тоесть, если есть 100 фич, то топовые feature importance будут у одинаковых 10 в разном порядке.
ПОЕХАЛИ>>1226323 (OP)>>1226323 (OP)>>1226323 (OP)
>>1226259Получай мед образование, в свободное время изучай Питон и нейронки на прикладном уровне. В глубокий матан не лезь, бесполезно и не нужно.Если повезет - применишь нейронки где-нибудь в медицине и придешь к успеху. Если не повезет - будешь клизмы ставить.