Автор | Хокинг и Маск встали на защиту людей от сверхинтеллекта |
Физик-теоретик Стивен Хокинг и основатель Tesla Motors Илон Маск поддержали ряд принципов, которые должны гарантировать, что искусственный интеллект (ИИ) не причинит вреда человеку и будет служить лишь на благо. Об этом сообщает Silicon Valley Business Journal.
Данный пакт необходим для того, чтобы обеспечить безопасность людей, а также ответить на многие вопросы, касающиеся ИИ. Маск уверен, что ИИ потенциально может быть более опасным, чем ядерное оружие. Хокинг также придерживается подобного мнения и утверждает, что ИИ может погубить человечество. Однако оба признают, что благодаря ИИ люди смогут решить многие проблемы — например, излечить рак или же замедлить глобальное потепление.
Следование всем 23 принципам должно гарантировать, что ИИ будет служить лишь благим целям. Они разбиты на три категории: «Исследовательские вопросы», «Вопросы этики и ценностей», а также «Долгосрочные проблемы». К первой категории относятся ответы на вопросы, которые встают перед создателями ИИ, в том числе описание того, как должно происходить финансирование. Во второй категории затронуты вопросы безопасности и способы нейтрализации угрозы. В третьей описаны возможные риски, с которыми может столкнуться человечество, когда ИИ достигнет пика своего развития и появится так называемый сверхинтеллект.
Данные принципы были разработаны на конференции, посвященной обсуждению ИИ в начале января 2017 года. В написании приняли участие генеральный директор DeepMind Демис Хассабис (Demis Hassabis). |
Классику надо читать. А. Азимов все уже предвидел намного раньше! |
Ох уж эти боты! |
для -ARHIMED:
предвидел намного раньше!
теперь то реальность,ну или скажем завтрашний день |
для Дикий_Эст:
Про Хокинга и Маска понятно, автор темы то тут при чём?
Если Дикий_Эст чешит в затылке
Не беда,
В голове его опилки
Да, да, да. |
Я думаю это не компы умнеют, а просто люди глупеют... |
для Светославна:
Компы сами по себе, конечно же не умнеют.
Просто новые мощности позволяют сделать попытки реализовать такие концепции, которые раньше были только в фантазиях. |
[Сообщение удалено смотрителем пломбирчик // п.2.2 ПФ Предупрежедние] |
Пиар. не пришло еще время роботам морали читать |
[Сообщение удалено смотрителем пломбирчик // п.2.2 ПФ Предупрежедние] |
пф
пока у ИИ не будет развиваться личность, которая будет анализировать и сосоставлять себя с окружающим проблем вообще не предвидится
до этого ещё пройдет ни одна сотня лет думается |
Да, от такого надо быть защищённым.
http://cs8.pikabu.ru/post_img/big/2016/09/04/5/1472975887165063103.jpg |
[Сообщение удалено смотрителем пломбирчик // п.2.2 ПФ Предупрежедние] |
[Сообщение удалено смотрителем пломбирчик // п.2.2 ПФ Предупрежедние] |
Иногда кажется, что Siri умнее многих людей |
Я думаю это не компы умнеют, а просто люди глупеют...
все верно
Пиар. не пришло еще время роботам морали читать
согласен..
в статье упоминается что есть такие проблемы как рак или глобальное потепление.. а эти балбесы думают о роботах, вместо того чтобы напрямую пытаться решить эти проблемы
понятно что каждый занимается своим делом, но рано еще для ИИ, очень рано |
но рано еще для ИИ, очень рано
по сути ИИ это любая программа алгоритм выполняющий какуюлибо задачу рандомно |
по сути ИИ это любая программа алгоритм выполняющий какуюлибо задачу рандомно
алгоритм это не ИИ |
Хогинг и встал - странное противоречие. |
Нас убьёт сверхбактерия а не какой то тупой ИИ. |