Об игре
Новости
Войти
Регистрация
Рейтинг
Форум
18:21
4114
 online
Требуется авторизация
Вы не авторизованы
   Форумы-->Форум для внеигровых тем-->
1|2

АвторХокинг и Маск встали на защиту людей от сверхинтеллекта
для Zael_Hell:
просто бактерия. без супер.а черви поедят, как и положено.
Снова какой-то бред.
Придумали проблему на пустом месте. Как известно, самая большая угроза человечеству - не ядерное оружие, не супербактерия, и не глобальное потепление, а Челведсвин - наполовину человек, наполовину медведь и наполовину свинья. Вот чего нужно реально опасаться. А не какого-то там ИИ, которого уже 50 лет не могут не создать, потому что это невозможно с существующим уровнем технологий.
Даже если создадут, он будет убиваться с ответки, тырить сферы и вообще тупить по-страшному...
для Akron:
это невозможно с существующим уровнем технологий.
А какие еще нужны технологии, кроме текстового редактора для записи кода?
Вот зацените видос
https://www.youtube.com/watch?v=y81ryf_eDHA
Насмотрятся всяких терминаторов, а потом загоняют про опасность ИИ, а ведь ИИ это обычный запрограммированный алгоритм, придуманный человеком и никаким образом у него желание поступать иначе появится не может.
для AndruxaX:
ИИ это обычный запрограммированный алгоритм
Нейронные сети не программируются в привычном смысле этого слова, они обучаются.
Возможность обучения — одно из главных преимуществ нейронных сетей перед традиционными алгоритмами.
Убивать человека смысла нет. Но вот захватить власть...
а ведь ИИ это обычный запрограммированный алгоритм, придуманный человеком и никаким образом у него желание поступать иначе появится не может.

Вот не любитель я заявлять че-то типа "не смотрел, но осуждаю", но в данном
случае придется.

Я далек от программирования, и многого не понимаю, но отдупляю четко одну
весчь: ИИ можно сделать опасным, при помощи того же рандомайзера.

Когда прописаны все известные действия в ответ на определенную ситуацию,
включая "не вполне адекватные", а выборка действия хаотичная.
Как у живого человека, все зависит от кучи неочевидных факторов.

И поступать такой ИИ будет как среднестатистический долбодятел, не?

Это утрированный пример, но суть, надеюсь, понятна. Обучаемость машины
тоже не фантастика уже. Куча инфы на все случаи жизни с Сети присутствует,
вопрос только в ее систематизации и применении.

Так что не все так просто, как это видится специалистам.
И достаточно реально опасно, как это видится мне, дилетанту.
ИИ можно сделать опасным, при помощи того же рандомайзера
Тогда это не ИИ, а неконтролируемый спусковой крючок.

Когда прописаны все известные действия в ответ на определенную ситуацию,
включая "не вполне адекватные", а выборка действия хаотичная.

Тогда он выберет меньшее из двух зол, ведь смысл не только в выборе реакции на незнакомую ситуацию, а в выборе более приемлемых последствий.
А какие еще нужны технологии, кроме текстового редактора для записи кода?
Лет 40 назад были разговоры, что вот, щас напишем. А воз и ныне там, несмотря на то, что и хард, и софт сильно продвинулись. Ничего лучше чат-ботов, "умного" поиска и шахматистов так и не написали.
Даже ИИ для стратегий не могут создать, несмотря на все разговоры про обучаемость и нейронные сети, он как был тупым, так и остался.
Уже понятно, что на обычных процессорах ИИ не сможет работать. Не та структура и недостаточно мощности.
На нейронных сетях хорошо работает то, для чего и человек в основном их использует. Ну например координация движений, распознавание образов. Но не высшее мышление.

Я далек от программирования, и многого не понимаю, но отдупляю четко одну
весчь: ИИ можно сделать опасным, при помощи того же рандомайзера.

Вот оно и видно, что не понимаешь. Человека делает опасным его способность к творческому мышлению. Это совсем не то же самое, что просто рандом. Рандом, несмотря на свою случайность, предсказуем. Сколько бы шаблонов поведения ты в него не заложил, всё равно они все будут известны, и против них будет известно средство.
Допустим, есть пистолет, который может выстрелить вперёд, а может назад. Опасен ли он? Да, первый раз, для тех, кто об этом свойстве не знает. Но оно сразу же станет известным, и хоть нельзя сказать, в какую сторону он выстрелит, ясно, что в одну из двух.
А создать что-то совершенно новое ИИ не может. У человека для этого имеется целая жизнь и комбинации миллионов совершенно случайных факторов, часть из которых неизвестны. Да и то 99% людей действуют предсказуемо. Для ИИ, даже супер-обучаемого, это и вообще нереально. Он может обучиться только тому, для чего его создали обучаться, и не больше
Ничего лучше чат-ботов, "умного" поиска и шахматистов так и не написали.

Откуда такая уверенность? Ведь есть целые институты. Может быть уже есть, но изолирован.
Может быть уже есть, но изолирован.
А, ну если так, то и от челведсвина нужно как-то защищаться, вдруг он тоже есть
ИИ коварен, он уже среди нас!
1|2
К списку тем
2007-2025, онлайн игры HeroesWM