![]() |
![]() |
![]() |
|||||
![]() |
Еще один шаг к цифровому концлагерю |
||||||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-03-10 16:33 ![]() Его, что неудивительно, сделали в Израиле. Кибервоенное подразделение Unit 2800 обучило нейросеть материалах разговоров - текстовых и вербальных, - полученных в результате слежки за палестинцами. По некоторым данным, для обучения была использована база, насчитывающая 100 млрд слов на арабском. В результате израильские военные получили возможность проводить интеллектуальный поиск по огромным базам шпионских данных. Информация об этом появилась в результате расследования, проведенного британской газетой The Guardian и израильской «+972 Magazine». Согласно полученным журналистами данным, система позволяет на основе анализа разговоров различных людей понять, производил ли тот или иной человек определенные действия, встречался ли он с определенными людьми и так далее. То есть фактически, был создан робот-шпион, который следит за всеми, подглядывает и подслушивает, а по запросу может рассказать не только то, что конкретный человек говорил, но и что о нем говорили другие. Знакомые с системой собеседники журналистов признались, что система может создавать «галлюцинации», то есть домысливать информацию и выдавать как факт то, чего не было на самом деле. Впрочем, отмечают авторы расследования, таково свойство всех подобных систем. Однако на базе конкретно этой принимаются решения об арестах или другом противодействии тем, кого в Израиле считают террористами. Сколько времени уже работает система и кто от нее пострадал — неизвестно. Любопытно, что разработчики системы сперва пытались взять за основу ChatGPT и обратились за этим в OpenAI, но им отказали. Тогда они приобрели нужный код через Microsoft. Как видим, инструменты для построения электронного концлагеря создаются и совершенствуются буквально на глазах. Когда их возьмут на вооружение все более-менее технически развитые страны — вопрос лишь времени. У нас, напомним, тоже строят свои системы слежки, столь же всеобъемлющие. Источник: rvs.su Комментарии: |
||||||