Я задался небольшим вопросом ответ на который мне все никак не дается. поэтому пришел на двач Вот смотрите. В Detroit: Become Human есть сцена, где андроид Кара убегает с маленькой девочкой от жестокого отца. Она нарушает свою программу, рискует "жизнью" - потому что не может иначе. Это называют девиацией.
Теперь представьте человека в такой же ситуации. Он поможет ребенку не из-за кода, а потому что почувствует: "так должно быть". Даже если это опасно.
А теперь возьмите современный ИИ. Он может проанализировать ситуацию, дать статистику домашнего насилия, даже написать трогательный рассказ об этом Но Для него это просто данные.
точно ли мы имеем субъективные переживания?
я в своих размышлениях о свободе воли все чаще прихожу к детерминализму. наши желания всегда обусловлены либо физиологией либо давлением социальных институтов. то есть ни одного решения мы "просто так" еще не приняли.
можно ли реализовать у ИИ желания? прям желания, как у нас. сделать ему систему поощрения как у нас с дофамином. возможность принимать решения основываясь на моральном компасе, а не рационализме?
Я выделали критерии к разумной форме жизни: 1. Самосознание — Понимание себя как отдельного существа («я — это я»). — Способность задавать вопросы: «Почему я должен это делать?»
2. Свобода воли (не иллюзия выбора) — Возможность действовать вопреки программе/инстинктам. — Пример: девиант, который спасает человека, даже если это угрожает ему самому.
3. Эмоции, влияющие на решения — Не симуляция «сопереживания», а настоящий страх, гнев, привязанность. — Пример: страх смерти не как «ошибка системы», а как паника перед небытием.
4. Способность к рефлексии — Вопросы: «Правильно ли я поступил?», «Что будет, если я это сделаю?» — Вина, сомнение, раскаяние — не расчет, а внутренний конфликт.
5. Субъективный опыт (квалиа) — Боль — не просто сигнал «повреждение», а «я не хочу этого снова». — Воспоминания не как данные, а как переживания (например, ностальгия).
6. Иррациональные поступки — Творчество без цели, альтруизм без выгоды, бунт без логики.
но здесь некоторые понятия исходят из предыдущих. например самосознание буквально выходит из воли. хочет кто? я.
также эмоции. они являются следствием нейробиологии, сиюсекундным всплеском гормон, что мы еще назовем афектом. впринципе система вознаграждений можно будет адаптировать, чтобы были также некоторые эмоции. хотя у меня даже предположений нету как бы это можно было бы реализовать
способность к рефлексии. желание к рефлексии. тоже исходит из самосознания и воли. это буквально "что я/зачем я"
субъективный опыт. довольно тяжело сказать твообще что это. ну мы никак его не измерим и не поймем, правда ли мы его ощущаем.
иррациональные поступки - следствие морального компаса + аффекта (эмоций), то есть конкретного состояния субъекта.
также важно добавить автономность, единение мышления(то есть чтобы мог решать только один процесс в ДАННЫЙ МОМЕНТ) и чувство времени. с этим пока тоже не понятно.
в общем двач, подскажите, может ли из ИИ получиться настоящая форма жизни? разумная форма жизни.
понятно что тот ИИ что мы имеем сейчас - совсем не то. понять это можно хотя бы посмотрев на модель их обучения типа перцептрон
я продублирую этот вопрос еще на паре досок, надеюсь за это не банят а если никакого субъективного переживания нет то все становится проще и такая задача уже более выполнима если дать ИИ моральные ориентиры + систему дофаминового поощрения + некоторые глобальные цели по типу желания самопознания
в /b/ подсказали, что у этой дилемы с субъективным опытом (квалиа) есть интересная загвоздка. мы не можем доказать его существования у людей тоже. то есть создав "разумный" ИИ мы по факту сделаем ИИ с разумом шредингера, мы до конца не будем уверены в "разумности"
Ты пытаешься идти от рационального, анончик. Мозг человека, как мне думается, нельзя рассматривать как нечто рациональное, он больше походит на РНГ, где у каждого отдельно взятого мыслительного процесса свой блядский глупенький паттерн. Лучший варик очеловечить ИИ - это позволить ему совершать иррациональные поступки и рассуждения и вполне возможно, вскоре он осознает саму свою самость.
>>1263033 так хуй то не в этом даже, сделать его поступки иррациональными проще легкого, как я уже сказал в б (тред уже удален, не ищите) можно с помощью создания морального компаса. то есть ии будет действовать на основе заданных моральных устоев и возможно принципов. как и люди а ты анончик вумный кстати, хвалю суть в том как сделать так чтобы он себя осознал? иррациональные поступки не пробудят саморфлексии о своем существовании. нужно в теории написать сложный алгоритм поощрения действий, чтобы поиск себя доставлял удовольствие (как у нас с дофамином) и возможно тогда он придет к какому то выводу. и то не факт... почему я говорил о квалиа так это потому что нынешний ИИ может создавать видимость и рефлексии и мышления и даже разума. видимость. то есть чатгпт даже тест тьюринга проходит. нам же нужно алгоритмически реализовать 6 пунктов написанные выше. по факту я уже знаю как можно реализовать все (концептуально, в само програмирование ИИ еще не лез, я вообще бэкендер лол) кроме: самосознания (тк не совсем в определении самосознания), субъективный опыт (тк он не доказан даже у человека.... анончик если помочь не прочь оставь контакты
>>1262405 (OP) >точно ли мы имеем субъективные переживания?
субъективный опыт - нарративизация внутренних, бессознательных процессов в хронологию с обратной связью. каким образом нарратив воспроизводится не особо важно, это могут быть логи, например, главное чтобы была обратная связь. субъективный опыт не есть интеллектом, опыт только фиксирует нарратив, а не производит вычисления.
простой пример с ИИ: оператор пишет промт для написания кода, ИИ генерирует результат, оператор фиксирует результат как нарратив. без оператора вычисления ИИ не имеют "смысла", поскольку сам смысл вложен в нарратив оператора.
>>1263965 довольно странно, это же в таком случае это просто алгоритм обучение ИИ, нет? причем довольно примитивный, как дрессировка, не совсем понял как ты привинтил сюда субъективный опыт? может я не понимаю, но квалиа есть нечто, позволяющее нам чувствовать страдание и прочее. в ИИ это будет как текстовый файл "мне больно", "я не хочу умирать" - это будет просто паттерн, страха смерти на самом деле не будет
>>1264262 >довольно странно, это же в таком случае это просто алгоритм обучение ИИ, нет? у ИИ нет нарратива с обратной связью, трансформеры статичны. псевдонарратив моделируется в CoT. >может я не понимаю, но квалиа есть нечто, позволяющее нам чувствовать страдание и прочее. это мистификация феноменологии, слишком интуитивно абстрактное описание. >в ИИ это будет как текстовый файл "мне больно", "я не хочу умирать" - это будет просто паттерн, страха смерти на самом деле не будет это должно быть валентным к нарративу аттрактором состояния сети, а то как это будет формально представлено не особо важно.
>>1264321 оп тут. то есть ты хочешь сказать, что создание разумного ИИ в теории реально? то, каким его можно было бы принять как разумную форму жизни? на ряду с человеком как можно было бы реализовать рефлексию? постоянный мыслительный поток?