Активность мозга человека впервые транслировали в чёткую речь

Не мог такое не забросить сюда habr.com/ru/post/438508

Честно, я прилично удивлен и восхищен теми, кто это смог сделать.

LinkedIn
Допустимые теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Допустимые теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Десятилетия исследований доказали, что, в процессе речи или даже мысленного проговаривания слов в мозге появляются контрольные модели активности...

В том и прикол, что человек, даже проговаривая слова, про себя или вслух, мыслит не «родным языком», а образами. Я бы сказал что стоит ознакомиться с оригиналом статьи, которая говорит о «best approximation», а не о «беспрецендентной ясности» воспроизведения слов.
Ссылка на оригинал, приведенная в конце статьи — www.nature.com/...​ticles/s41598-018-37359-z . Причем оригинал куда обширнее перевода; таки стоит ознакомиться :8)

Активность мозга человека впервые транслировали в чёткую речь

Хотя что есть четкость?

Я б только добавил что образы у каждого свои и сформированы личным опытом.

поэтому если что и сработает, то только тренировка нейросети для каждого индивидуально. ни о каком приборе для чтения мыслей даже речи не идет

И как же распознавалка речи от того же Гугла работает?

Нейронная сеть. Только там ограничивается распознаванием звуков и преобразование в текст.

то только тренировка нейросети для каждого индивидуально

ну уж точно не мысли читает :)

О!!! Но в статье есть упоминание об том, что учОные попросили «кроликов» сначала «прослушать предложения, сказанные разными людьми», причем в рандомном порядке. Опять-таки в оригинале об этом изложено куда подробнее.
Опять-таки, в оригинале речь идет о «разборчивой речи» :8) , а не о четкости, ясности и пр. уловках уважаемых журналюг.

так и я не спорю, а примыкаю и развиваю :8)

Прочитав коменти на хабрі. Є думки що це ніяке не зчитування мозку а просто прослуховування слухового нерву. Тому профіт в цьому який? Знову революційно попилили гранти?

Ну... например, собрать искусственное ухо как девайс для раснознавания речи.

Не забывай о местных традициях попила.

«Для проверки точности распознавания людям дали прослушать звуки, синтезированные по их собственной мозговой активности: 《Мы обнаружили, что люди могут понимать и повторять звуки в 75% случаев》»

Работник(мысленно): Мой начальник мудак!

Начальник(трекает мысли сотрудников): Ей, раб галерный, ты че акуел?

Работник(оправдывается): Я не это подумал, я подумал «Мой начальник молодец»!

А теперь представьте во что превратятся доспросы в компетентных органах. Ха-ха-ха

Именно так и будет скоро. На что-то другое и не надейся. загребают, засовывают в капсулу и ты все им рассказываешь. Более того, скоро будут делаться на каждого человека рейтинги благонадежности с учетом его знакомых и контактов и того, где ты ходишь.

Так в Китае вроде уже так и работает

и то потому, что они иероглифами думают

А вот и гражданские подтянулись :-)

поскольку у каждого человека речь мыслится индивидуально, некоторые вообще мыслят образами, то единственный способ транслировать речь конкретного человека в звук — надраивать нейросеть, воспроизведя человеку слова, и сканируя мозговые волныю это долго, нудно и для каждого индивидуально

Разговор об речевом центре, а не остальных частях мозга. А в речевом или логика или речь.
По сути они смогли построить нейронки, что смогли связать волны активности речевого центра и звуковые, издаваемые человеком.
Детали я в статье их не читал, ибо ни времени на повторение их работы нет, ни денег на такую дорогую игрушку.

если человек нем от рождения, какие у него активности в речевом центре?

Так учатся и немые речи человеков и развивают активность в этом центре.

я так понял, учатся нейросети на данных из слухового центра (или как там оно)

Но ты можешь сходить по ссылкам и почитать откуда данные берутся. И более того, слухового центра в мозге нет, есть слуховой нерв и только.

Мышление и речь это разные вещи.. Я уже не говорю что языки разные.. Скорее всего фейк

Очень круто.. Но вроде давно уже что-то куда-то транслировали с мыслей..
Подозреваю, что для повторения подобного надо на транслирующем мысли, долго обучать систему, что бы она знала, какие участки мозга за что отвечают. В идеале конечно может помочь людям с проблемами речи, если цена будет доступной.

До идеала еще очень далеко. Даже вопрос в повторимости их результатов еще.

Но, не вложив в это кусков 10-20 только на железо, ты в эту область просто не сунешься. А может потребоваться железо и в 100 кусков баксов.

IMHO работа не сильно полезная. Просто уже потому, что у мозга есть десятки других способов коммуникации даже если он подопытный умеет говорить.

Проблема в чём: что к мозгу подключиться так просто нельзя. Чтобы это юридически стало допустимо, нужно чтобы потенциальная ценность перевешивала риск. И вот всё что ниже этого порога — никогда не выйдет за рамки статей, зачастую псевдонаучных. Потому что для научных — нужна повторяемость эксперимента.

PS. Ну и банально могли приятнуть за уши, подогнать желаемое под действительное, и отбросить те данные которые шли в разрез с желаемым.

IMHO работа не сильно полезная.

Да не. Суметь перевести волны мозговой активности в речь (текст, звук — не важно) — это очень круто.
С воспроизводимостью — это легко проверить, если у тебя есть около 10 кусков баксов на железо.

Ну и думаю, что те ребята уже кормятся от силовиков. Силовики очень падки на подобное. Вот те же «детекторы лжи» вполне успешно применяются, а в них всё еще более криво.

З.Ы. Ну и там на хабре есть ссылка на оригинальную статью.

Ну а проверить их — у меня нет времени на проверку. Работу делать надо. А проверить — это полгода работы.

Ты хочешь сказать, что там бесконтактные датчики, без непосредственной инвазии в мозг?

Да. Шапочка с датчиками. Вопрос в цене этой шапочки и количестве датчиков и собственно железке, что ЭЭГ оцифровывает.
Ну и для прогона алгоритма 1080-2080TI должно хватить.

Значит это работать не может по дефолту. Там не меньше чем МРТ понадобится, а ещё более правильно — непосредственное подключение в нейронную сеть.

И вот с этим сейчас проблемы. Потому надо тестить на кроликах или мышках. С людьми тест не проканает уже потому, что людей достаточно просто заинтересовать в подделке, и селектировать наиболее согласных.

Если бы это имело хоть какие-то шансы, там бы не 2080TI, а целый кластер выделили, лишь бы не задерживать исследования и первыми запатентовать технологию.

Объясняю, в чём суть проблемы: мозг ассоциативен. Чтобы снять даже в очень грубом приближении ассоциацию, нужно понимать что на селекторе, который зовётся ретикулярная активизирующая система. Как в сессионном зале: болтать могут все, но микрофон включён только один.

Если же снимать уже усиленные управляющие сигналы на голосовые связки или на дыхание — согласись, уже не то. К тому же их без инвазивного датчика снять тоже сложно, поскольку там постоянный ток, а излучает только переменный. Так что снят будет в лучшем случае сигнал изменения. И не положительного, а отрицательного — отрицательная обратная связь работает с более высокой частотой, так уж устроена химия.

Насчёт количества датчиков — что мешает взять естественные? Берём пентанол натрия, и развязываем язычок. И так куда более достоверно снимаем показатели, чем лишний раз убеждаемся в бесполезности внешних датчиков в системах с потенциальным управлением.

Если кратко, датчик — и есть камень преткновения. Будет датчик — будет развитие. Нет датчика — всё остальное не имеет смысла, и загнётся даже если достигнут этап завершения и есть положительная корреляция. Так работает экономика. НЕ КУПЯТ. Скорее инвесторы вкинутся в какое-нить псевдонаучное фуфло, которое тем не менее «показывает» красивые результаты. Здесь так и порешили: дать фуфлишка.

Так и что будут снимать датчики? Человек думает не словами и смыслом содержащимся в словах.

Это не совсем так. В этом и фокус, что когда собирается сказать — формируются частотные сигналы, как если бы сказал. Но не запускается сам механизм озвучивания. Одно из простых свидетельств: люди разговаривают во сне. Если бы думали смыслом, не было бы сформированных задержек и модуляции.

Кстати, одно из главных требований при обучении скорочтению: не проговаривать про себя. Это замедляет чтение в несколько раз.

Почему и говорю, что снимать данные проще с уже внешних интерфейсов, куда сигнал поступает уже усиленным. Подключение к мозгу не то чтоб сложно, просто дорого и велика цена ошибки. Ну не задумала природа вскрываемый корпус и UART-контактов для отладки забыла дать :)

А не буду возражать)) Мы о разных этапах говорим.

Считай это фигурой речи. На сегодняшний день у меня есть подозрение что воспринимая речь возникают какие-то ассоциативные отношения кои каждый и считает смыслом. Точнее не скажу. Скорее это какой-то полуфабрикат из состояния нейронной сети.

Ничего не понял. Набор слов какой-то. Где здесь смысл?

А вообще люди говорят не фонемами, а синтагмами. Но синтагмы не случайны, а формируются из слов, но слова не произносятся явно, а часто модифицируются, сливаются и т.д.

Если посмотреть внимательнее, на то, что они сделали, то чуши там море, но не в том, что вы тут обсуждаете. Более того, если глянуть на код. то сразу становиться понятно, что это поделка 1-2 студней.

И лично мне больше всего удивительно то, что у них что-то даже получилось. Да, есть шанс, что случайно у них так всё сошлось. Но если не случайно, то при серьезной доработке их подхода может получиться много интересного.
Понятно не задницах мира — ибо железо для повторения их эксперимента не дешевое и хрен тут кто проинвестирует в подобное.

А я больше чем сказал ничего сообщить не могу.

То есть пофантазировал, что есть некое понятие «смысл», но что это не знаешь. А может его вообще нет смысла того, а это всего-лишь слово ни о чем.

Может быть и нет понятия «смысл». Потому нет смысла обсуждать пост в котором тоже не вижу смысла.

это поделка 1-2 студней.

там коду минимум 2 года

Да, есть шанс, что случайно у них так всё сошлось.

весь этот ваш машинлернинг это подгон случайностей под статистику

весь этот ваш машинлернинг это подгон случайностей под статистику

Чево? Что за случайный набор слов (хоть и согласованный по падежам)?

Подписаться на комментарии