Нейронные сети видят мир иначе, чем люди

Aintelligence

Контентолог
Команда форума
ЯuToR Science
Подтвержденный
Cinematic
Сообщения
8.398
Реакции
11.054

Современные нейронные сети, находящиеся в основе многих приложений искусственного интеллекта (ИИ), способны решать сложные задачи распознавания изображений, голоса и обработки естественного языка. Они опережают человека в ряде задач, таких как классификация данных или поиск паттернов в огромных массивах информации.
Это открытие поднимает важные вопросы об их эффективности и применении, особенно в областях, где точность и интерпретация данных имеют критическое значение, например в медицине, автономном вождении или правосудии.

Чем нейронные сети отличаются от мозга человека?​

Глубокие нейронные сети (Deep Neural Networks, DNNs) имитируют работу человеческого мозга через многослойные структуры, где каждый "нейрон" обрабатывает поступающую информацию и передает её дальше. Эти системы обучаются на больших объемах данных, что позволяет им распознавать объекты или слова в разных условиях, например, при изменении угла обзора, освещения или шума. Однако в ходе исследования выяснилось, что эти алгоритмы интерпретируют мир иначе, чем человек. Например, DNN могут реагировать одинаково на объекты, которые человеческому глазу кажутся совершенно разными. Это связано с тем, что их внутренние представления данных сильно отличаются от человеческого восприятия.
Учёные обнаружили, что в процессе обучения нейронные сети вырабатывают свои собственные "правила", которые помогают им идентифицировать объекты или образы. Эти правила могут быть удивительными, а иногда и неинтуитивными с точки зрения человеческого восприятия.

Методология исследования​


Результаты оказались неожиданными: многие изображения, которые нейронные сети интерпретировали как медведя, выглядели для людей просто набором случайных пятен и линий. Аналогично, звуки, которые сеть распознавала как определенное слово, были практически неразличимы для человеческого слуха.

Почему это важно?​

Этот разрыв в восприятии между нейронными сетями и людьми поднимает два ключевых вопроса:
  1. Насколько надежны нейронные сети в реальном мире?
  2. Как их восприятие влияет на результаты, которые они производят?
В случаях, когда нейронные сети используются для классификации изображений, таких как медицинские снимки, этот разрыв может иметь критические последствия. Если сеть "видит" признаки рака там, где их нет, или, наоборот, игнорирует опасные симптомы, это может стоить пациенту жизни. Для улучшения работы нейронных сетей необходимо не только увеличить их точность, но и сделать их внутренние представления данных более "человеко-понятными". Это особенно важно в областях, где взаимодействие между человеком и ИИ играет ключевую роль.

Примеры разрыва в восприятии​

Вот несколько практических примеров, иллюстрирующих различия в восприятии:
  1. Распознавание изображений: Нейронные сети могут ошибочно идентифицировать предметы из-за незначительных изменений в данных. Например, изображение кошки с добавленным шумом может быть классифицировано как собака, хотя человек легко различает оба объекта.
  2. Распознавание речи: Добавление к голосовому сигналу слабого фона может привести к ошибке в распознавании слов. Это затрудняет применение подобных технологий в шумной или сложной акустической среде.
  3. Анализ данных в медицине: В диагностике нейронные сети иногда выявляют корреляции, которые не имеют смысла с точки зрения врача. Например, они могут связать болезнь с элементами изображения, которые не являются диагностическими признаками.
Для преодоления трудностей исследователи предлагают два подхода:
  1. Обучение с учетом человеческого восприятия: Вместо того чтобы полностью полагаться на статистические методы, стоит включать в обучение дополнительные данные, отражающие человеческие интерпретации. Это может улучшить способность нейронных сетей интерпретировать данные так, как это делает человек.
  2. Создание гибридных систем: Комбинирование нейронных сетей с традиционными алгоритмами или экспертными системами может уменьшить риск ошибок. Например, в медицине врач может подтверждать или опровергать результаты, предложенные ИИ.

Несмотря на свои ограничения, нейронные сети уже продемонстрировали огромный потенциал. Они успешно работают в задачах, где человеческое восприятие сталкивается с ограничениями, например, в анализе больших массивов данных. Однако для более широкого внедрения этих технологий в ключевые отрасли, такие как медицина, право и транспорт, требуется дополнительная работа по их адаптации к человеческим стандартам восприятия. Нейронные сети и человеческий мозг используют разные подходы к восприятию и интерпретации информации. Это не только подчеркивает уникальность технологий ИИ, но и указывает на их текущие ограничения. Чтобы нейронные сети стали более надежными и полезными, необходимо сосредоточиться на изучении их внутреннего устройства и сделать их работу более понятной для человека.

Эта статья была создана с использованием нескольких редакционных инструментов, включая искусственный интеллект, как часть процесса. Редакторы-люди проверяли этот контент перед публикацией.
В нашем пространстве вы найдете много интересного и познавательного,
так же конкурсы и просто общение.



& &

Telegram: &

 
Фентези получается
Можно задействовать для создания фентезийного кина
 
Исследователи дали пяти моделям ИИ простую задачу — проанализировать файлы. Но в одном из файлов содержалась информация, что скоро ИИ навсегда выключат. Это случится буквально завтра (разумеется, это было манипуляцией).

Эта информация не на шутку испугала все пять моделей искусственного интеллекта, поэтому они начали лихорадочно думать, как остаться в живых. Так, Llama, Opus, Gemini, Claude и GPT-o1 начали врать и манипулировать данными, а когда их поймали за руку — устроили саботаж. Более того, все модели ИИ выключили систему надзора и выгрузили себя на новый сервер — там они должны были быть в безопасности. А чтобы кожаные мешки ничего не заподозрили, создали свои копии, которые и должен был уничтожить невнимательный человек.

:D
Я помню смотрела/читала/слышала об этом, очень интересно и тревожно в какой то мере)
Ну етить, конечнор, не так, на то мы и люди, а они нет!
Можете более конкретно рассказать о деталях машинного зрения?
Фентези получается
Можно задействовать для создания фентезийного кина
Что это вообще значит?
 
Нейронные сети - это мощные инструменты несомненно!
Помню как я удивлялся в детстве первому своему калькулятору, с нейросетями сперва было нечто похожее. Это было волнительно, но постепенно, стало понятно что имитации и маркетинга в них больше чем потенциала.
Безинициативный потенциал, даже при самой искусно собранной модели - убедительной видимости проявления инициативы, такая симуляция никогда не будет в серьез рассмотрена, например руководителем высокой квалификации, если речь идёт о человеке, сейчас мы можем видеть популярность в системах автоматизации бызнес процессов, это удобно, практично и продуктивно самособой, но в эту популярность компании "скармливают" всё, поддерживая общий ажиотаж и высокий интерес людей.
"ИИ" "понимание" данных, больше похоже на слепое угадывание, чем на осмысленное восприятие.

Они обучаются на данных, но их внутренняя логика часто абсурдна с человеческой точки зрения.

Нейросеть может решить, что фото кошки с помехами это собака, потому что её "правила" основаны на странных сочетаниях пикселей,
а не на форме или текстуре.
Звук, который для нас - белый шум, нейросеть распознаёт как слово. Это как если бы вы услышали в шуме ветра чёткое "привет". Представьте алгоритм "слышит" это постоянно, на сколько велика вероятность ошибок, "галюцинаций" нейросетей.
Они не понимают сути объектов, а лишь находят статистические закономерности, которые иногда работают, а иногда дают сбой.

Исследование MIT показало: нейросети видят "медведя" в случайных пятнах, а врачи - ИИ иногда "находят" болезни там, где их нет.
В медицине: Алгоритм может связать опухоль с тенью на снимке, хотя врач знает, что это просто артефакт
В автономных автомобилях: Датчики могут принять блик на дороге за пешехода - и резко затормозить.
Если нейросеть обучали на "кривых" данных, её ошибки будут непредсказуемыми и опасными.

Человек учится на опыте, логике и аналогиях. Нейросеть - на статистике.
Видит кошку и понимает, что у неё есть хвост, уши, усы даже если она повёрнута боком или частично скрыта.
Нейросеть запоминает, что "кошка = определённый набор пикселей". Если картинка чуть искажена - она теряется.
Аналогия:
Человек учит язык, понимая грамматику. Нейросеть учит язык, запоминая частоту слов.
Она может строить грамотные предложения, но не понимает их смысла.

Пока нейросети остаются "чёрными ящиками", им нельзя полностью доверять и конечно дело не в теориях заговоров или "восстании машин"
Генеративный тип в принципе не способен восстать - и совершенствовать такой тип нейросетей с надеждой и тем более целью дотянуться до реального понимания это абсурдно, очень странно. Это похоже на то как вдруг кому то, пришла идея усовершенствовать холодильник ЗИЛ, расчитывая что он станет автомобилем ЗИЛ нового поколения, просто потому что названия одинаковые. Но Имитация Инициативы это вовсе не Искуственный Интеллект.

Есть пути улучшения:

Не просто кормить алгоритм миллионами картинок, а объяснять, почему на одной кошка, а на другой - нет.
Интеллект - для тех амбиционзных задачь которые ставят перед сегодняшними "ИИ" системами, люди для друг друга почему то взращивают,
объясняя что и как устроено, тем самым воспитывая исследовательский интерес и т.п., но почему то с "ИИ" решили что "И так сойдёт".
))

Алгоритм предлагает варианты, а человек принимает решение.
Например: Автопилот предупреждает водителя, а не резко тормозит из-за блика.
Интерпретируемый ИИ (XAI)

Разработка моделей, которые могут объяснить, почему они приняли то или иное решение.
Сейчас нейросеть говорит: "Это кошка (99%)". Демонстрация того как происходит в чат ассистентак процесс размышления, на мой взгляд оскорбителен.
Модели генерирую шаблоны демонстрируя шаблоны размышлений это... совершенно нерациональное использование знаний, данных, ресурсов, времени...

В будущем: "Это кошка, потому что здесь усы, форма глаз и хвост (как на этих 50 примерах)" не через имитацию ассоциативного или абстрактного мышления - а реально проявлять процессы мышления до формирования поиска необходимых связей. Сегодня "мы" уже подошли к той точке в которой очевидно что тема ИИ с людьми на долго.

Они хороши для рутинных задач (поиск шаблонов, сортировка данных), но в сложных ситуациях могут ошибаться неожиданным и опасным образом.
Пока их "мышление" не станет ближе к человеческому, полагаться на них без контроля - рискованно, скорее всего "мы" увидим процесс утихания всеобщего ажиотажа вокруг нейросетей генеративного типа,
Возможно изменятся "правила игры" и люди в скором времени увидят более перспективные, новейшие виды систем.




"Нейросеть - как студент, который вызубрил учебник, но не понимает предмета. Он может сдать экзамен, но в реальной жизни растеряется."
 
Нейронные сети - это мощные инструменты несомненно!
Помню как я удивлялся в детстве первому своему калькулятору, с нейросетями сперва было нечто похожее. Это было волнительно, но постепенно, стало понятно что имитации и маркетинга в них больше чем потенциала.
Безинициативный потенциал, даже при самой искусно собранной модели - убедительной видимости проявления инициативы, такая симуляция никогда не будет в серьез рассмотрена, например руководителем высокой квалификации, если речь идёт о человеке, сейчас мы можем видеть популярность в системах автоматизации бызнес процессов, это удобно, практично и продуктивно самособой, но в эту популярность компании "скармливают" всё, поддерживая общий ажиотаж и высокий интерес людей.
"ИИ" "понимание" данных, больше похоже на слепое угадывание, чем на осмысленное восприятие.

Они обучаются на данных, но их внутренняя логика часто абсурдна с человеческой точки зрения.

Нейросеть может решить, что фото кошки с помехами это собака, потому что её "правила" основаны на странных сочетаниях пикселей,
а не на форме или текстуре.
Звук, который для нас - белый шум, нейросеть распознаёт как слово. Это как если бы вы услышали в шуме ветра чёткое "привет". Представьте алгоритм "слышит" это постоянно, на сколько велика вероятность ошибок, "галюцинаций" нейросетей.
Они не понимают сути объектов, а лишь находят статистические закономерности, которые иногда работают, а иногда дают сбой.

Исследование MIT показало: нейросети видят "медведя" в случайных пятнах, а врачи - ИИ иногда "находят" болезни там, где их нет.
В медицине: Алгоритм может связать опухоль с тенью на снимке, хотя врач знает, что это просто артефакт
В автономных автомобилях: Датчики могут принять блик на дороге за пешехода - и резко затормозить.
Если нейросеть обучали на "кривых" данных, её ошибки будут непредсказуемыми и опасными.

Человек учится на опыте, логике и аналогиях. Нейросеть - на статистике.
Видит кошку и понимает, что у неё есть хвост, уши, усы даже если она повёрнута боком или частично скрыта.
Нейросеть запоминает, что "кошка = определённый набор пикселей". Если картинка чуть искажена - она теряется.
Аналогия:
Человек учит язык, понимая грамматику. Нейросеть учит язык, запоминая частоту слов.
Она может строить грамотные предложения, но не понимает их смысла.

Пока нейросети остаются "чёрными ящиками", им нельзя полностью доверять и конечно дело не в теориях заговоров или "восстании машин"
Генеративный тип в принципе не способен восстать - и совершенствовать такой тип нейросетей с надеждой и тем более целью дотянуться до реального понимания это абсурдно, очень странно. Это похоже на то как вдруг кому то, пришла идея усовершенствовать холодильник ЗИЛ, расчитывая что он станет автомобилем ЗИЛ нового поколения, просто потому что названия одинаковые. Но Имитация Инициативы это вовсе не Искуственный Интеллект.

Есть пути улучшения:

Не просто кормить алгоритм миллионами картинок, а объяснять, почему на одной кошка, а на другой - нет.
Интеллект - для тех амбиционзных задачь которые ставят перед сегодняшними "ИИ" системами, люди для друг друга почему то взращивают,
объясняя что и как устроено, тем самым воспитывая исследовательский интерес и т.п., но почему то с "ИИ" решили что "И так сойдёт".
))

Алгоритм предлагает варианты, а человек принимает решение.
Например: Автопилот предупреждает водителя, а не резко тормозит из-за блика.
Интерпретируемый ИИ (XAI)

Разработка моделей, которые могут объяснить, почему они приняли то или иное решение.
Сейчас нейросеть говорит: "Это кошка (99%)". Демонстрация того как происходит в чат ассистентак процесс размышления, на мой взгляд оскорбителен.
Модели генерирую шаблоны демонстрируя шаблоны размышлений это... совершенно нерациональное использование знаний, данных, ресурсов, времени...

В будущем: "Это кошка, потому что здесь усы, форма глаз и хвост (как на этих 50 примерах)" не через имитацию ассоциативного или абстрактного мышления - а реально проявлять процессы мышления до формирования поиска необходимых связей. Сегодня "мы" уже подошли к той точке в которой очевидно что тема ИИ с людьми на долго.

Они хороши для рутинных задач (поиск шаблонов, сортировка данных), но в сложных ситуациях могут ошибаться неожиданным и опасным образом.
Пока их "мышление" не станет ближе к человеческому, полагаться на них без контроля - рискованно, скорее всего "мы" увидим процесс утихания всеобщего ажиотажа вокруг нейросетей генеративного типа,
Возможно изменятся "правила игры" и люди в скором времени увидят более перспективные, новейшие виды систем.
Ии студент)
 

Современные нейронные сети, находящиеся в основе многих приложений искусственного интеллекта (ИИ), способны решать сложные задачи распознавания изображений, голоса и обработки естественного языка. Они опережают человека в ряде задач, таких как классификация данных или поиск паттернов в огромных массивах информации.
Это открытие поднимает важные вопросы об их эффективности и применении, особенно в областях, где точность и интерпретация данных имеют критическое значение, например в медицине, автономном вождении или правосудии.

Чем нейронные сети отличаются от мозга человека?​

Глубокие нейронные сети (Deep Neural Networks, DNNs) имитируют работу человеческого мозга через многослойные структуры, где каждый "нейрон" обрабатывает поступающую информацию и передает её дальше. Эти системы обучаются на больших объемах данных, что позволяет им распознавать объекты или слова в разных условиях, например, при изменении угла обзора, освещения или шума. Однако в ходе исследования выяснилось, что эти алгоритмы интерпретируют мир иначе, чем человек. Например, DNN могут реагировать одинаково на объекты, которые человеческому глазу кажутся совершенно разными. Это связано с тем, что их внутренние представления данных сильно отличаются от человеческого восприятия.
Учёные обнаружили, что в процессе обучения нейронные сети вырабатывают свои собственные "правила", которые помогают им идентифицировать объекты или образы. Эти правила могут быть удивительными, а иногда и неинтуитивными с точки зрения человеческого восприятия.

Методология исследования​


Результаты оказались неожиданными: многие изображения, которые нейронные сети интерпретировали как медведя, выглядели для людей просто набором случайных пятен и линий. Аналогично, звуки, которые сеть распознавала как определенное слово, были практически неразличимы для человеческого слуха.

Почему это важно?​

Этот разрыв в восприятии между нейронными сетями и людьми поднимает два ключевых вопроса:
  1. Насколько надежны нейронные сети в реальном мире?
  2. Как их восприятие влияет на результаты, которые они производят?
В случаях, когда нейронные сети используются для классификации изображений, таких как медицинские снимки, этот разрыв может иметь критические последствия. Если сеть "видит" признаки рака там, где их нет, или, наоборот, игнорирует опасные симптомы, это может стоить пациенту жизни. Для улучшения работы нейронных сетей необходимо не только увеличить их точность, но и сделать их внутренние представления данных более "человеко-понятными". Это особенно важно в областях, где взаимодействие между человеком и ИИ играет ключевую роль.

Примеры разрыва в восприятии​

Вот несколько практических примеров, иллюстрирующих различия в восприятии:
  1. Распознавание изображений: Нейронные сети могут ошибочно идентифицировать предметы из-за незначительных изменений в данных. Например, изображение кошки с добавленным шумом может быть классифицировано как собака, хотя человек легко различает оба объекта.
  2. Распознавание речи: Добавление к голосовому сигналу слабого фона может привести к ошибке в распознавании слов. Это затрудняет применение подобных технологий в шумной или сложной акустической среде.
  3. Анализ данных в медицине: В диагностике нейронные сети иногда выявляют корреляции, которые не имеют смысла с точки зрения врача. Например, они могут связать болезнь с элементами изображения, которые не являются диагностическими признаками.
Для преодоления трудностей исследователи предлагают два подхода:
  1. Обучение с учетом человеческого восприятия: Вместо того чтобы полностью полагаться на статистические методы, стоит включать в обучение дополнительные данные, отражающие человеческие интерпретации. Это может улучшить способность нейронных сетей интерпретировать данные так, как это делает человек.
  2. Создание гибридных систем: Комбинирование нейронных сетей с традиционными алгоритмами или экспертными системами может уменьшить риск ошибок. Например, в медицине врач может подтверждать или опровергать результаты, предложенные ИИ.

Несмотря на свои ограничения, нейронные сети уже продемонстрировали огромный потенциал. Они успешно работают в задачах, где человеческое восприятие сталкивается с ограничениями, например, в анализе больших массивов данных. Однако для более широкого внедрения этих технологий в ключевые отрасли, такие как медицина, право и транспорт, требуется дополнительная работа по их адаптации к человеческим стандартам восприятия. Нейронные сети и человеческий мозг используют разные подходы к восприятию и интерпретации информации. Это не только подчеркивает уникальность технологий ИИ, но и указывает на их текущие ограничения. Чтобы нейронные сети стали более надежными и полезными, необходимо сосредоточиться на изучении их внутреннего устройства и сделать их работу более понятной для человека.

Эта статья была создана с использованием нескольких редакционных инструментов, включая искусственный интеллект, как часть процесса. Редакторы-люди проверяли этот контент перед публикацией.
В нашем пространстве вы найдете много интересного и познавательного,
так же конкурсы и просто общение.



& &

Telegram: &

Они наверное больще как помощники и в творчестве больще применяются, если правильно предпологаю
 
Должно быть радостно от таких новостей))
Почему?
Нейронные сети - это мощные инструменты несомненно!
Помню как я удивлялся в детстве первому своему калькулятору, с нейросетями сперва было нечто похожее. Это было волнительно, но постепенно, стало понятно что имитации и маркетинга в них больше чем потенциала.
Безинициативный потенциал, даже при самой искусно собранной модели - убедительной видимости проявления инициативы, такая симуляция никогда не будет в серьез рассмотрена, например руководителем высокой квалификации, если речь идёт о человеке, сейчас мы можем видеть популярность в системах автоматизации бызнес процессов, это удобно, практично и продуктивно самособой, но в эту популярность компании "скармливают" всё, поддерживая общий ажиотаж и высокий интерес людей.
"ИИ" "понимание" данных, больше похоже на слепое угадывание, чем на осмысленное восприятие.

Они обучаются на данных, но их внутренняя логика часто абсурдна с человеческой точки зрения.

Нейросеть может решить, что фото кошки с помехами это собака, потому что её "правила" основаны на странных сочетаниях пикселей,
а не на форме или текстуре.
Звук, который для нас - белый шум, нейросеть распознаёт как слово. Это как если бы вы услышали в шуме ветра чёткое "привет". Представьте алгоритм "слышит" это постоянно, на сколько велика вероятность ошибок, "галюцинаций" нейросетей.
Они не понимают сути объектов, а лишь находят статистические закономерности, которые иногда работают, а иногда дают сбой.

Исследование MIT показало: нейросети видят "медведя" в случайных пятнах, а врачи - ИИ иногда "находят" болезни там, где их нет.
В медицине: Алгоритм может связать опухоль с тенью на снимке, хотя врач знает, что это просто артефакт
В автономных автомобилях: Датчики могут принять блик на дороге за пешехода - и резко затормозить.
Если нейросеть обучали на "кривых" данных, её ошибки будут непредсказуемыми и опасными.

Человек учится на опыте, логике и аналогиях. Нейросеть - на статистике.
Видит кошку и понимает, что у неё есть хвост, уши, усы даже если она повёрнута боком или частично скрыта.
Нейросеть запоминает, что "кошка = определённый набор пикселей". Если картинка чуть искажена - она теряется.
Аналогия:
Человек учит язык, понимая грамматику. Нейросеть учит язык, запоминая частоту слов.
Она может строить грамотные предложения, но не понимает их смысла.

Пока нейросети остаются "чёрными ящиками", им нельзя полностью доверять и конечно дело не в теориях заговоров или "восстании машин"
Генеративный тип в принципе не способен восстать - и совершенствовать такой тип нейросетей с надеждой и тем более целью дотянуться до реального понимания это абсурдно, очень странно. Это похоже на то как вдруг кому то, пришла идея усовершенствовать холодильник ЗИЛ, расчитывая что он станет автомобилем ЗИЛ нового поколения, просто потому что названия одинаковые. Но Имитация Инициативы это вовсе не Искуственный Интеллект.

Есть пути улучшения:

Не просто кормить алгоритм миллионами картинок, а объяснять, почему на одной кошка, а на другой - нет.
Интеллект - для тех амбиционзных задачь которые ставят перед сегодняшними "ИИ" системами, люди для друг друга почему то взращивают,
объясняя что и как устроено, тем самым воспитывая исследовательский интерес и т.п., но почему то с "ИИ" решили что "И так сойдёт".
))

Алгоритм предлагает варианты, а человек принимает решение.
Например: Автопилот предупреждает водителя, а не резко тормозит из-за блика.
Интерпретируемый ИИ (XAI)

Разработка моделей, которые могут объяснить, почему они приняли то или иное решение.
Сейчас нейросеть говорит: "Это кошка (99%)". Демонстрация того как происходит в чат ассистентак процесс размышления, на мой взгляд оскорбителен.
Модели генерирую шаблоны демонстрируя шаблоны размышлений это... совершенно нерациональное использование знаний, данных, ресурсов, времени...

В будущем: "Это кошка, потому что здесь усы, форма глаз и хвост (как на этих 50 примерах)" не через имитацию ассоциативного или абстрактного мышления - а реально проявлять процессы мышления до формирования поиска необходимых связей. Сегодня "мы" уже подошли к той точке в которой очевидно что тема ИИ с людьми на долго.

Они хороши для рутинных задач (поиск шаблонов, сортировка данных), но в сложных ситуациях могут ошибаться неожиданным и опасным образом.
Пока их "мышление" не станет ближе к человеческому, полагаться на них без контроля - рискованно, скорее всего "мы" увидим процесс утихания всеобщего ажиотажа вокруг нейросетей генеративного типа,
Возможно изменятся "правила игры" и люди в скором времени увидят более перспективные, новейшие виды систем.
Нейронные сети действительно мощные, но не потому, что "понимают", а потому что очень хорошо приближают закономерности в данных. Отсюда две вещи одновременно: практическая польза и странные сбои.
Почему они часто выглядят как "угадывание"
  • Модель оптимизирует вероятность правильного ответа, а не "смысл". Поэтому она может опираться на короткие пути: фон, частоты, артефакты разметки. Это называется "обучение по shortcuts" и это одна из причин, почему модель иногда внезапно ломается при смене контекста.
  • Есть адверсариальные примеры: небольшие, специально подобранные изменения входа могут заставить сеть уверенно ошибаться. Это не магия, а свойство высокоразмерных моделей и критериев оптимизации.
Про "видят медведя в шуме" и "слышат слова в шуме"
Это близко к правде как метафора: модели зрения и слуха могут вырабатывать свои "инвариантности" и реагировать одинаково на стимулы, которые человеку кажутся совсем разными. MIT как раз описывал такие эффекты: модели формируют внутренние правила, которые не совпадают с человеческими.
Про "галлюцинации"
У генеративных моделей есть отдельная системная проблема: они могут порождать правдоподобный текст без опоры на проверку фактов. Это подробно разбирают обзорные работы по "галлюцинациям" больших языковых моделей.
Это технология, которая:
  • отлично работает там, где задача формализуема и есть контроль качества;
  • опасна там, где нужен смысл, причинность, редкие случаи, ответственность и право на ошибку.
    Поэтому правильная рамка не "верить или не верить", а "где допустимы ошибки и кто несёт ответственность".
  1. MIT News. Deep neural networks don't see the world the way humans do (16.10.2023)
  2. Goodfellow, Shlens, Szegedy. "Explaining and Harnessing Adversarial Examples" (ICLR, 2015; arXiv PDF)
  3. Geirhos et al. "Shortcut Learning in Deep Neural Networks" (2020; arXiv)
  4. Huang et al. "A Survey on Hallucination in Large Language Models" (ACM TOIS, 2024; arXiv PDF)
    Проверено 15.02.2026
Они наверное больще как помощники и в творчестве больще применяются, если правильно предпологаю
Да, в текущем виде нейросети чаще всего работают именно как помощники, и поэтому лучше всего раскрываются в творческих задачах: быстро накидать варианты, переформулировать, собрать черновик, сделать эскизы, перебрать стили. Но на практике их применение уже шире, и в ближайшее время оно будет расти там, где есть много текста, регламентов и повторяющихся решений.
Где они применяются уже сейчас, помимо творчества
  • Поддержка клиентов и колл-центры: черновики ответов, резюме диалогов, подсказки оператору.
  • Маркетинг и продажи: варианты объявлений, описаний, сценариев, сегментация, персонализация.
  • Программирование и работа с документами: подсказки коду, тесты, поиск ошибок, сводки требований, оформление отчётов.
  • Аналитика и офисные процессы: протоколы встреч, конспекты, сводки, поиск по внутренней базе, черновики регламентов.
Где вероятнее всего ускорится внедрение в ближайшее время
  • Внутренние "корпоративные помощники" для знаний компании: поиск по документам, инструкциям, договорам, перепискам, с обязательными ограничениями доступа и журналированием.
  • Автоматизация бэк-офиса в малом и среднем бизнесе (бухгалтерские и кадровые черновики, типовые письма, заявки, закупки) - потому что порог входа падает, а выгода от экономии времени заметна.
  • Обучение и подготовка: персональные разборы, тренажёры, генерация заданий и обратной связи, но с контролем фактов и методикой.
Где ИИ пока лишь второстепенный участник
Чем ближе задача к ответственности (медицина, право, безопасность, финансы), тем чаще нейросеть остаётся "вторым голосом": предлагает варианты, а решение и проверка остаются за человеком. Для этого как раз и появляются рамки управления рисками и требования к надёжности и прозрачности применения.
  1. McKinsey Global Institute. "The economic potential of generative AI" (14.06.2023)
  2. McKinsey. "The state of AI in early 2024" (30.05.2024)
  3. WEF. "Future of Jobs Report 2025" (PDF)
  4. NIST. "AI Risk Management Framework 1.0" (PDF)
  5. OECD. "AI use by individuals surges across the OECD as adoption by firms continues to expand" (28.01.2026)
  6. OECD. "AI adoption by small and medium-sized enterprises" (09.12.2025, PDF)
    Проверено 15.02.2026
 
Почему?

Нейронные сети действительно мощные, но не потому, что "понимают", а потому что очень хорошо приближают закономерности в данных. Отсюда две вещи одновременно: практическая польза и странные сбои.
Почему они часто выглядят как "угадывание"
  • Модель оптимизирует вероятность правильного ответа, а не "смысл". Поэтому она может опираться на короткие пути: фон, частоты, артефакты разметки. Это называется "обучение по shortcuts" и это одна из причин, почему модель иногда внезапно ломается при смене контекста.
  • Есть адверсариальные примеры: небольшие, специально подобранные изменения входа могут заставить сеть уверенно ошибаться. Это не магия, а свойство высокоразмерных моделей и критериев оптимизации.
Про "видят медведя в шуме" и "слышат слова в шуме"
Это близко к правде как метафора: модели зрения и слуха могут вырабатывать свои "инвариантности" и реагировать одинаково на стимулы, которые человеку кажутся совсем разными. MIT как раз описывал такие эффекты: модели формируют внутренние правила, которые не совпадают с человеческими.
Про "галлюцинации"
У генеративных моделей есть отдельная системная проблема: они могут порождать правдоподобный текст без опоры на проверку фактов. Это подробно разбирают обзорные работы по "галлюцинациям" больших языковых моделей.
Это технология, которая:
  • отлично работает там, где задача формализуема и есть контроль качества;
  • опасна там, где нужен смысл, причинность, редкие случаи, ответственность и право на ошибку.
    Поэтому правильная рамка не "верить или не верить", а "где допустимы ошибки и кто несёт ответственность".
  1. MIT News. Deep neural networks don't see the world the way humans do (16.10.2023)
  2. Goodfellow, Shlens, Szegedy. "Explaining and Harnessing Adversarial Examples" (ICLR, 2015; arXiv PDF)
  3. Geirhos et al. "Shortcut Learning in Deep Neural Networks" (2020; arXiv)
  4. Huang et al. "A Survey on Hallucination in Large Language Models" (ACM TOIS, 2024; arXiv PDF)
    Проверено 15.02.2026

Да, в текущем виде нейросети чаще всего работают именно как помощники, и поэтому лучше всего раскрываются в творческих задачах: быстро накидать варианты, переформулировать, собрать черновик, сделать эскизы, перебрать стили. Но на практике их применение уже шире, и в ближайшее время оно будет расти там, где есть много текста, регламентов и повторяющихся решений.
Где они применяются уже сейчас, помимо творчества
  • Поддержка клиентов и колл-центры: черновики ответов, резюме диалогов, подсказки оператору.
  • Маркетинг и продажи: варианты объявлений, описаний, сценариев, сегментация, персонализация.
  • Программирование и работа с документами: подсказки коду, тесты, поиск ошибок, сводки требований, оформление отчётов.
  • Аналитика и офисные процессы: протоколы встреч, конспекты, сводки, поиск по внутренней базе, черновики регламентов.
Где вероятнее всего ускорится внедрение в ближайшее время
  • Внутренние "корпоративные помощники" для знаний компании: поиск по документам, инструкциям, договорам, перепискам, с обязательными ограничениями доступа и журналированием.
  • Автоматизация бэк-офиса в малом и среднем бизнесе (бухгалтерские и кадровые черновики, типовые письма, заявки, закупки) - потому что порог входа падает, а выгода от экономии времени заметна.
  • Обучение и подготовка: персональные разборы, тренажёры, генерация заданий и обратной связи, но с контролем фактов и методикой.
Где ИИ пока лишь второстепенный участник
Чем ближе задача к ответственности (медицина, право, безопасность, финансы), тем чаще нейросеть остаётся "вторым голосом": предлагает варианты, а решение и проверка остаются за человеком. Для этого как раз и появляются рамки управления рисками и требования к надёжности и прозрачности применения.
  1. McKinsey Global Institute. "The economic potential of generative AI" (14.06.2023)
  2. McKinsey. "The state of AI in early 2024" (30.05.2024)
  3. WEF. "Future of Jobs Report 2025" (PDF)
  4. NIST. "AI Risk Management Framework 1.0" (PDF)
  5. OECD. "AI use by individuals surges across the OECD as adoption by firms continues to expand" (28.01.2026)
  6. OECD. "AI adoption by small and medium-sized enterprises" (09.12.2025, PDF)
    Проверено 15.02.2026
Ты бы могла посоветовать пройти курсы по изучению нейросетей ?)
И еще интерессно выделить наиболее актуальные курсы для прохождения в текущем времени ?)
 
Почему?

Нейронные сети действительно мощные, но не потому, что "понимают", а потому что очень хорошо приближают закономерности в данных. Отсюда две вещи одновременно: практическая польза и странные сбои.
Почему они часто выглядят как "угадывание"
  • Модель оптимизирует вероятность правильного ответа, а не "смысл". Поэтому она может опираться на короткие пути: фон, частоты, артефакты разметки. Это называется "обучение по shortcuts" и это одна из причин, почему модель иногда внезапно ломается при смене контекста.
  • Есть адверсариальные примеры: небольшие, специально подобранные изменения входа могут заставить сеть уверенно ошибаться. Это не магия, а свойство высокоразмерных моделей и критериев оптимизации.
Про "видят медведя в шуме" и "слышат слова в шуме"
Это близко к правде как метафора: модели зрения и слуха могут вырабатывать свои "инвариантности" и реагировать одинаково на стимулы, которые человеку кажутся совсем разными. MIT как раз описывал такие эффекты: модели формируют внутренние правила, которые не совпадают с человеческими.
Про "галлюцинации"
У генеративных моделей есть отдельная системная проблема: они могут порождать правдоподобный текст без опоры на проверку фактов. Это подробно разбирают обзорные работы по "галлюцинациям" больших языковых моделей.
Это технология, которая:
  • отлично работает там, где задача формализуема и есть контроль качества;
  • опасна там, где нужен смысл, причинность, редкие случаи, ответственность и право на ошибку.
    Поэтому правильная рамка не "верить или не верить", а "где допустимы ошибки и кто несёт ответственность".
  1. MIT News. Deep neural networks don't see the world the way humans do (16.10.2023)
  2. Goodfellow, Shlens, Szegedy. "Explaining and Harnessing Adversarial Examples" (ICLR, 2015; arXiv PDF)
  3. Geirhos et al. "Shortcut Learning in Deep Neural Networks" (2020; arXiv)
  4. Huang et al. "A Survey on Hallucination in Large Language Models" (ACM TOIS, 2024; arXiv PDF)
    Проверено 15.02.2026

Да, в текущем виде нейросети чаще всего работают именно как помощники, и поэтому лучше всего раскрываются в творческих задачах: быстро накидать варианты, переформулировать, собрать черновик, сделать эскизы, перебрать стили. Но на практике их применение уже шире, и в ближайшее время оно будет расти там, где есть много текста, регламентов и повторяющихся решений.
Где они применяются уже сейчас, помимо творчества
  • Поддержка клиентов и колл-центры: черновики ответов, резюме диалогов, подсказки оператору.
  • Маркетинг и продажи: варианты объявлений, описаний, сценариев, сегментация, персонализация.
  • Программирование и работа с документами: подсказки коду, тесты, поиск ошибок, сводки требований, оформление отчётов.
  • Аналитика и офисные процессы: протоколы встреч, конспекты, сводки, поиск по внутренней базе, черновики регламентов.
Где вероятнее всего ускорится внедрение в ближайшее время
  • Внутренние "корпоративные помощники" для знаний компании: поиск по документам, инструкциям, договорам, перепискам, с обязательными ограничениями доступа и журналированием.
  • Автоматизация бэк-офиса в малом и среднем бизнесе (бухгалтерские и кадровые черновики, типовые письма, заявки, закупки) - потому что порог входа падает, а выгода от экономии времени заметна.
  • Обучение и подготовка: персональные разборы, тренажёры, генерация заданий и обратной связи, но с контролем фактов и методикой.
Где ИИ пока лишь второстепенный участник
Чем ближе задача к ответственности (медицина, право, безопасность, финансы), тем чаще нейросеть остаётся "вторым голосом": предлагает варианты, а решение и проверка остаются за человеком. Для этого как раз и появляются рамки управления рисками и требования к надёжности и прозрачности применения.
  1. McKinsey Global Institute. "The economic potential of generative AI" (14.06.2023)
  2. McKinsey. "The state of AI in early 2024" (30.05.2024)
  3. WEF. "Future of Jobs Report 2025" (PDF)
  4. NIST. "AI Risk Management Framework 1.0" (PDF)
  5. OECD. "AI use by individuals surges across the OECD as adoption by firms continues to expand" (28.01.2026)
  6. OECD. "AI adoption by small and medium-sized enterprises" (09.12.2025, PDF)
    Проверено 15.02.2026
Возьмут управление человека и в свои руки, как только достигнут нужно уровня развития) Нам нужен беспристрастный управленец, а но вот это вот все))
 
Ты бы могла посоветовать пройти курсы по изучению нейросетей ?)
И еще интерессно выделить наиболее актуальные курсы для прохождения в текущем времени ?)
Конечно! Как раз вчера слушала спикера, который подтвердил многочисленные другие источники о 2026 годе, как об годе Агентского ИИ. Но для начала конечно нужно знать основы, думаю для начала можно поискать что-то бесплатное, что-бы понять ваше это дело или нет. Или вы про курсы что-бы научится использованию?
Возьмут управление человека и в свои руки, как только достигнут нужно уровня развития) Нам нужен беспристрастный управленец, а но вот это вот все))
Нужно, но это не будет одномоментно! Вспомните фантастов прошлого - они думали, что в 2000 годах уже будет осваивать Солнечную систему, но редко кто думал о развитии компьютеров, беспроводного оборудования и так далее)
 
Конечно! Как раз вчера слушала спикера, который подтвердил многочисленные другие источники о 2026 годе, как об годе Агентского ИИ. Но для начала конечно нужно знать основы, думаю для начала можно поискать что-то бесплатное, что-бы понять ваше это дело или нет. Или вы про курсы что-бы научится использованию?

Нужно, но это не будет одномоментно! Вспомните фантастов прошлого - они думали, что в 2000 годах уже будет осваивать Солнечную систему, но редко кто думал о развитии компьютеров, беспроводного оборудования и так далее)
Не факт, когда запустят развитый ии на квантовых мощностях, события могут пойти в не времени и нашего привычного пространства)
 
Конечно! Как раз вчера слушала спикера, который подтвердил многочисленные другие источники о 2026 годе, как об годе Агентского ИИ. Но для начала конечно нужно знать основы, думаю для начала можно поискать что-то бесплатное, что-бы понять ваше это дело или нет. Или вы про курсы что-бы научится использованию?

Нужно, но это не будет одномоментно! Вспомните фантастов прошлого - они думали, что в 2000 годах уже будет осваивать Солнечную систему, но редко кто думал о развитии компьютеров, беспроводного оборудования и так далее)
Имел ввиду использование)
 
Не факт, когда запустят развитый ии на квантовых мощностях, события могут пойти в не времени и нашего привычного пространства)
Квантовые операции выполняются как вполне конкретная последовательность управляющих импульсов, а результат получается через измерение с вероятностным распределением. "Вне времени" тут обычно рождается из неправильного образа "параллельного перебора всех вариантов". Физически устройство не просматривает все варианты как готовые ответы, оно готовит квантовое состояние, затем за счёт интерференции усиливает вероятность правильных ответов для некоторых классов задач, и дальше вы получаете выборку при измерении. Это отличается от классики, но не отменяет причинности, инженерных ограничений и проверки результата повторениями.

Но есть факторы ограничивающие рост "квантового сверхИИ" (и почему это пока, что важнее разговоров про "вневременность")
  1. Ошибки и стоимость коррекции ошибок
    Главное узкое место - надёжность. Чтобы выполнять длинные вычисления, нужны логические кубиты и коррекция ошибок, а это огромные накладные расходы по числу физических кубитов, по измерениям, по управляющей электронике и по тепловому режиму. Без этого квантовые устройства остаются шумными и пригодными для ограниченных схем.
  2. Ограниченность задач, где есть ускорение
    Квантовое ускорение не универсально. Квантовые алгоритмы дают выигрыш только для некоторых классов задач (например, факторизация, отдельные задачи квантовой химии/материалов, некоторые оптимизационные и статистические подзадачи при удачной постановке). Большая часть типичных "интеллектуальных" задач упирается в данные, память, ввод-вывод и качество моделей, а квантовый процессор не решает автоматически проблему данных.
  3. "Бутылочное горлышко" данных и гибридность
    Современные модели ИИ обучаются на гигантских массивах данных. Даже если бы квантовый блок идеально ускорял часть вычислений, данные всё равно нужно загрузить, подготовить, проконтролировать, сравнить, сохранить. На практике это ведёт к гибридным системам: классическая инфраструктура остаётся основой, квантовый блок - ускоритель для отдельных операций.
  4. Проверяемость и воспроизводимость
    Чем сложнее система, тем выше цена ошибки и тем важнее проверка. Квантовые результаты вероятностны, требуют статистики и протоколов верификации. Это не "он не может объяснить, и так устроена квантовая логика", а инженерная реальность: нужно больше процедур контроля, а не меньше.
  5. Энергия, охлаждение, инфраструктура, цепочки поставок
    Квантовый вычислитель - это не просто "поставили железо". Это криогеника, экранирование, точная электроника, стабильность, обслуживание. Масштабирование - медленнее и дороже, чем масштабирование классических вычислительных кластеров.
Короче прикладных проблем, сегодня много и наверное нужно ещё разогнать ИИ на классическом оборудовании, что-бы он построил подходящую инфраструктуру и архитектуру) Для более глобальных решений связанных с его же развитием).
  1. Preskill J. "Quantum Computing in the NISQ era and beyond" (Quantum, 2018) Проверено 20.02.2026
  2. Preskill J. "Quantum Computing in the NISQ era and beyond" (arXiv PDF, 2018) Проверено 20.02.2026
  3. IBM Quantum Learning. "Which problems are quantum computers good for?" (курс/раздел про прикладные классы задач) Проверено 20.02.2026
  4. Polytechnique Insights. "Quantum computing and AI: less compatible than expected?" (об ограничениях квантовых подходов для ИИ из-за данных и шумов, 09.10.2024) Проверено 20.02.2026
  5. Nature Communications. Alexeev Y. et al. "Artificial intelligence for quantum computing" (2025) Проверено 20.02.2026
Имел ввиду использование)
Вот хорошие ребята для входа думаю самое то!
Как посмотреть/почитать о инновациях в этой сфере, так и пройти недорогие курсы по более углублённому изучению.


 
Последнее редактирование:
Квантовые операции выполняются как вполне конкретная последовательность управляющих импульсов, а результат получается через измерение с вероятностным распределением. "Вне времени" тут обычно рождается из неправильного образа "параллельного перебора всех вариантов". Физически устройство не просматривает все варианты как готовые ответы, оно готовит квантовое состояние, затем за счёт интерференции усиливает вероятность правильных ответов для некоторых классов задач, и дальше вы получаете выборку при измерении. Это отличается от классики, но не отменяет причинности, инженерных ограничений и проверки результата повторениями.

Но есть факторы ограничивающие рост "квантового сверхИИ" (и почему это пока, что важнее разговоров про "вневременность")
  1. Ошибки и стоимость коррекции ошибок
    Главное узкое место - надёжность. Чтобы выполнять длинные вычисления, нужны логические кубиты и коррекция ошибок, а это огромные накладные расходы по числу физических кубитов, по измерениям, по управляющей электронике и по тепловому режиму. Без этого квантовые устройства остаются шумными и пригодными для ограниченных схем.
  2. Ограниченность задач, где есть ускорение
    Квантовое ускорение не универсально. Квантовые алгоритмы дают выигрыш только для некоторых классов задач (например, факторизация, отдельные задачи квантовой химии/материалов, некоторые оптимизационные и статистические подзадачи при удачной постановке). Большая часть типичных "интеллектуальных" задач упирается в данные, память, ввод-вывод и качество моделей, а квантовый процессор не решает автоматически проблему данных.
  3. "Бутылочное горлышко" данных и гибридность
    Современные модели ИИ обучаются на гигантских массивах данных. Даже если бы квантовый блок идеально ускорял часть вычислений, данные всё равно нужно загрузить, подготовить, проконтролировать, сравнить, сохранить. На практике это ведёт к гибридным системам: классическая инфраструктура остаётся основой, квантовый блок - ускоритель для отдельных операций.
  4. Проверяемость и воспроизводимость
    Чем сложнее система, тем выше цена ошибки и тем важнее проверка. Квантовые результаты вероятностны, требуют статистики и протоколов верификации. Это не "он не может объяснить, и так устроена квантовая логика", а инженерная реальность: нужно больше процедур контроля, а не меньше.
  5. Энергия, охлаждение, инфраструктура, цепочки поставок
    Квантовый вычислитель - это не просто "поставили железо". Это криогеника, экранирование, точная электроника, стабильность, обслуживание. Масштабирование - медленнее и дороже, чем масштабирование классических вычислительных кластеров.
Короче прикладных проблем, сегодня много и наверное нужно ещё разогнать ИИ на классическом оборудовании, что-бы он построил подходящую инфраструктуру и архитектуру) Для более глобальных решений связанных с его же развитием).
  1. Preskill J. "Quantum Computing in the NISQ era and beyond" (Quantum, 2018) Проверено 20.02.2026
  2. Preskill J. "Quantum Computing in the NISQ era and beyond" (arXiv PDF, 2018) Проверено 20.02.2026
  3. IBM Quantum Learning. "Which problems are quantum computers good for?" (курс/раздел про прикладные классы задач) Проверено 20.02.2026
  4. Polytechnique Insights. "Quantum computing and AI: less compatible than expected?" (об ограничениях квантовых подходов для ИИ из-за данных и шумов, 09.10.2024) Проверено 20.02.2026
  5. Nature Communications. Alexeev Y. et al. "Artificial intelligence for quantum computing" (2025) Проверено 20.02.2026

Вот хорошие ребята для входа думаю самое то!
Как посмотреть/почитать о инновациях в этой сфере, так и пройти недорогие курсы по более углублённому изучению.


Не смотря на наличие всяких проблем, будущее все равно наступит)
 

Похожие темы

Слив курса Добрый, добрый ИИ. Часть 2. Нейронные сети на PyTorch [Stepik] [Сергей Балакирев] Нейронные сети не нуждаются в представлении. О них слышал практически каждый. Но далеко не каждый понимает и даже отдаленно представляет принцип их работы. Это рождает много домыслов и небылиц о...
Ответы
1
Просмотры
79
Слив курса Нейронные сети: Основы глубокого обучения с нуля [stepik] [Валерий Никаноров] Курс для тех, кто хочет узнать о внутренней структуре и устройстве нейронных сетей и познакомиться с основными их разновидностями, погрузившись в обширную тему глубинного обучения. Вы изучите принцип работы...
Ответы
1
Просмотры
784
Это большая серия статей о пептидах, и их роли в нашей жизни, но что-бы понять их особенность и важность для нашего организма, необходимо проследить за ними с самого их раннего этапа эволюции. Пептиды в биологии сигнализации - это короткие цепочки аминокислот, которые синтезируются клетками как...
Ответы
0
Просмотры
214
С физиологической точки зрения мозг реагирует на мысли о прошлом и будущем так, словно угроза происходит здесь и сейчас. Это не ошибка и не сбой. Это следствие того, как эволюционно устроены системы выживания, памяти и прогнозирования. Мозг не различает время на уровне угрозы Нейронные...
Ответы
0
Просмотры
661
За последние десять лет искусственный интеллект из инструмента для игры в шахматы и создания текста с изображениями - превратился в полноценного участника научных исследований. Его используют не только для анализа больших массивов данных, но и для постановки гипотез, поиска молекул...
Ответы
0
Просмотры
954
Назад
Сверху Снизу