Об игре
Новости
Войти
Регистрация
Рейтинг
Форум
5:52
1580
 online
Требуется авторизация
Вы не авторизованы
   Форумы-->Форум для внеигровых тем-->
1|2|3|4|5|6

АвторИскусственный интеллект не может испытывать эмоции. Либо должен вырости как дитя
для Balmung:
теория Дарвина описывает развитие живых и не обладающих должным интеллектом организмов. Человечества она уже не касается. И не будет касаться потенциального ИИ. Это только в отсутствие конкуренции.

Внутривидовая конкуренция людей может привести к уничтожению людей как вида. Если к тому времени появятся машины, обладающие сознанием, они по инерции могут продолжить дальнейшую борьбу между собой уже после вымирания человечества.

Тогда дальнейшая конкуренция по теории дарвина определит наиболее жизнеспособную конструкцию. (Или комбинацию конструкций)
для Старый друг:
мне кажется, я тебя уже не понимаю)
Я толкую о том, что у органики свои пути развития, которые разумной органике еще не свойственны. А вот разумную механику разумная органика уже вполне может походу создать, причем у разумной механики сразу же будет огромный потенциал для саморазвития и обхождения органики на пару ступеней, которых у органики и так всяко не будет, пока ее не начнут селекционировать, т.к. естественные пути уже перестали-то работать.
для Balmung:
https://www.youtube.com/watch?v=UoKlKx-3FcA
Раньше не видел.
Но это эпично.
Если к тому времени появятся машины, обладающие сознанием, они по инерции могут продолжить дальнейшую борьбу между собой уже после вымирания человечества.
на самом деле конкуренция уже к тому моменту вполне может потерять всякий смысл. Конкуренция - это борьба за место под солнцем. В плане совершенного ИИ в ней смысла будет 0, пока никто не захочет этот ИИ уничтожить бесповоротно.
для -Партизанэн-:
^_^
Согласен, сам только сегодня наткнулся. Лучшая короткометражка из мной виденных)
для Science fiction:
Но даже самосовершенствующейся программе нельзя будет на 100% прописать запреты, т.к. достигрув определенного высокого уровня развития она сможет преодолеть этот барьер
Как раз наоборот. Возьмем для примера геометрию. Геометрия строится всего на нескольких аксиомах и никогда мы не можем получить теорему, которая будет противоречить какой-либо аксиоме.
Так же и с ИИ: закладываются основополагающие связи/отношения/аксиомы/законы и ИИ должен цепочку за цепочкой развивать свой интеллект открывая для себя новое, не противоречащее уже имеющимся у него знаниям.
да люди сами эксперимент, только сами этого не осознают.
для ГлавМаг:
эти основопологающие связи придумал человек, который компы-то даже не застал.
Нет, нельзя будет. Если мы хотим, чтобы ИИ развивался независимо от нас и помогал нам же.
для Balmung:
но Дарвин-то достиг много большего, чем любое из его созданий =)

Но эти создания обладали собственным независимым интеллектом и жили так, как хотели.
Видели сны,мечтали и т.д. не зависимо от отца.

Роботы на это никогда не будут способны. Роботы в любом виде зависят от создателя.

Не представляю, как роботы могут мечтать, видеть сны и фантазировать.
Хотя ничего невозможного нет.
Пока тайны работы человеческого мозга недоступны.
Мысль материальна? Если нет,то из материи ее создать невозможно.
-
Роботы на это никогда не будут способны. Роботы в любом виде зависят от создателя.
неверный посыл изначально, и постом выше я писал, что роботы, которые будут способны на прорывы, не должны зависеть от каких-либо директив. Чистый интеллект, созданный с 0 и сам себя развивающий как ребенок. Но не так, как человеческий ребенок. Но в итоге не имеющий ограничений человеческого тела.
для Balmung:
сам себя развивающий как ребенок. по заложенному алгоритму развития? :)
Кстати, если кому интересно: когда учился в ВУЗе, в ознакомительных целях изучали язык программирования Prolog. Этот язык один из немногих языков, относящийся к логическому программированию. Там всё задается через связи. Например, если укажешь что Ваня отец Пети, а Саша дочь Пети, то программа выдаст что Ваня дедушка Саши, а Саша внучка Вани.)))
Для справки: популярные языки Бейсик, Паскаль, С++, не являются таковыми.
для Lizun:
по заложенному алгоритму развития? :)
я считаю, что человек не сможет определить априори весь алгоритм и проконтролировать его. Алгоритм должен быть максимально настолько базовый, насколько это возможно. И лишние директивы в этом плане будут мешающим, и, мб, очень мешающим до невозможности фактором.
для Balmung:
Алгоритм должен быть максимально настолько базовый, насколько это возможно.

Ты про клонирование и клонов? Так это уже доступно.
Скоро и людей смогут клонировать.
для Balmung:
роботы, которые будут способны на прорывы, не должны зависеть от каких-либо директив. Чистый интеллект, созданный с 0 и сам себя развивающий как ребенок. Но не так, как человеческий ребенок. Но в итоге не имеющий ограничений человеческого тела. Базовые запреты должны быть, вроде запрета на самоуничтожение или уничтожение человеческих особей/нанесение им вреда. ИИ должен в этом отношении превосходить человека.
Альтрон?
В фильме "Ева", ученые закладывали образцы эмоциональной реакции человека-образца в искусственный разум.
База эмоциональных реакций на вид других людей, т.е. даже не так, а оценку эмоционального состояния других людей.

Мы же по сути в процессе роста-взросления так же получаем информацию, только постепенно. Мы видим человека и не знаем, что он испытывает, а нам говорят - он злится, потому что то-то.
И если злость еще достаточно яркая эмоция, и лучше различимая, то некоторые другие дети точно не могут понять.

Может быть какие-то начальные эмоциональные образцы заложены и в нас при рождении, не знаю. А может быть просто есть способность воспринимать, запоминать и применять их.

ИИ отличает способность самообучаться. Значит если в него вложено понятие "эмоция" на каком-то уровне развития, и заложен момент контроля этой составляющей - он будет развиваться и в этом плане.

Воспитывать вовсе не обязательно.
Для дальнейшего развития нужно будет лишь простое человеческое общение.
Можно конечно составить алгоритм, который будет имитировать эмоции. Но мы то будем знать, что на самом деле он их не испытывает. Просто программа отрабатывает таким образом, что на какие-то раздражители он выдаёт какую-то реакцию. Но она не более настоящая, чем НПС в какой-нибудь игре - настоящий человек.
То же самое и с желаниями, и с самоосознанием. Они не настоящие, в лучшем случае программная имитация. Я могу прямо сейчас сесть и написать программку, которая выдаст на экран что-то типа "я существую". Но на самом деле комп не осознаёт этого, он механизм, выполнивший мою команду.
Но ему всё это и не нужно. Достаточно и одного интеллекта, то есть логического аппарата. Гуглу это надо, чтобы он мог лучше выполнять поиск
а что делаем мы, как не имитируем, когда-то увиденные эмоции?

если человека с рождения поместить в безэмоциональную среду - он не будет испытывать никаких эмоций, имхо.

напротив, если создать программу, которая будет заставлять "чувствовать", эмоционально реагировать на события и людей, развиваться в эмоциональном плане самостоятельно - чем эта программа будет отличаться от человека?

тем, что мы ее создали сами и сами можем прекратить ее существование?
некоторые так и о своих детях думают...

смысл создавать машину, которая умеет чувствовать, если потом эти самые чувства не принимать в расчет?
Теперь мы думает об эволюции и развитии роботов
возможно так когда-то думали о людях
1|2|3|4|5|6
К списку тем
2007-2025, онлайн игры HeroesWM