Стоит ли ждать в ближайшие годы появления сильного ИИ?

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2025-04-05 13:05

Философия ИИ

Что мы называем «настоящим (сильным) ИИ»?

Железяка уже тест Тюринга проходит, считает, рисует, стихи сочиняет, программирует, в шахматы играет, а всё равно – ОЧЕНЬ далеко не то.

Здравого смысла не имеет, сознанием (и самосознанием) не обладает.

Создать «сильный ИИ» сейчас невозможно, таких технологий нет, ни железа (столько видеокарт человечество наклепать не может физически), ни софта, ни понимания, как они (аппаратно-программный комплекс) должны выглядеть.

И тот сегодняшний генеративный ИИ, что мы имеем, вероятно, – тупиковое направление с точки зрения создания «настоящего ИИ».

В общем, это не проблема ни для нас, ни для наших детей.

Может ли искусственный интеллект уничтожить человечество?

Вероятность, что настоящий ИИ уничтожит человечество составляет 50% – ровно столько же, сколько и вероятность встретить на улице динозавра из известного анекдота.

Может быть – уничтожит, а может быть и нет. Если его когда-нибудь создадут, то будет интересно на него посмотреть, но мы не застанем.

Что же касается сегодняшнего так называемого ИИ, то он может уничтожить человечество, если его этому целенаправленно учить.

Задачу он выполнит на довольно приличном уровне – лучше среднего десятиклассника из хорошей школы, ну, если учили его хорошо, и инструменты дали.

Но может в процессе галлюцинировать и путаться, совершать смешные и глупые ошибки.

Если ИИ не учить уничтожать человечество – то он этого делать и не будет.

В общем, можно спать спокойно, рекомендую не волноваться из-за ИИ, да и не только из-за него.


Источник: vk.com

Комментарии: