Активность мозга человека впервые транслировали в чёткую речь
Не мог такое не забросить сюда habr.com/ru/post/438508
Честно, я прилично удивлен и восхищен теми, кто это смог сделать.
Не мог такое не забросить сюда habr.com/ru/post/438508
Честно, я прилично удивлен и восхищен теми, кто это смог сделать.
Десятилетия исследований доказали, что, в процессе речи или даже мысленного проговаривания слов в мозге появляются контрольные модели активности...
В том и прикол, что человек, даже проговаривая слова, про себя или вслух, мыслит не «родным языком», а образами. Я бы сказал что стоит ознакомиться с оригиналом статьи, которая говорит о «best approximation», а не о «беспрецендентной ясности» воспроизведения слов.
Ссылка на оригинал, приведенная в конце статьи — www.nature.com/...ticles/s41598-018-37359-z . Причем оригинал куда обширнее перевода; таки стоит ознакомиться :8)
Активность мозга человека впервые транслировали в чёткую речь
Хотя что есть четкость?
Я б только добавил что образы у каждого свои и сформированы личным опытом.
поэтому если что и сработает, то только тренировка нейросети для каждого индивидуально. ни о каком приборе для чтения мыслей даже речи не идет
Нейронная сеть. Только там ограничивается распознаванием звуков и преобразование в текст.
О!!! Но в статье есть упоминание об том, что учОные попросили «кроликов» сначала «прослушать предложения, сказанные разными людьми», причем в рандомном порядке. Опять-таки в оригинале об этом изложено куда подробнее.
Опять-таки, в оригинале речь идет о «разборчивой речи» :8) , а не о четкости, ясности и пр. уловках уважаемых журналюг.
Прочитав коменти на хабрі. Є думки що це ніяке не зчитування мозку а просто прослуховування слухового нерву. Тому профіт в цьому який? Знову революційно попилили гранти?
Ну... например, собрать искусственное ухо как девайс для раснознавания речи.
«Для проверки точности распознавания людям дали прослушать звуки, синтезированные по их собственной мозговой активности: 《Мы обнаружили, что люди могут понимать и повторять звуки в 75% случаев》»
Работник(мысленно): Мой начальник мудак!
Начальник(трекает мысли сотрудников): Ей, раб галерный, ты че акуел?
Работник(оправдывается): Я не это подумал, я подумал «Мой начальник молодец»!
А теперь представьте во что превратятся доспросы в компетентных органах. Ха-ха-ха
Именно так и будет скоро. На что-то другое и не надейся. загребают, засовывают в капсулу и ты все им рассказываешь. Более того, скоро будут делаться на каждого человека рейтинги благонадежности с учетом его знакомых и контактов и того, где ты ходишь.
поскольку у каждого человека речь мыслится индивидуально, некоторые вообще мыслят образами, то единственный способ транслировать речь конкретного человека в звук — надраивать нейросеть, воспроизведя человеку слова, и сканируя мозговые волныю это долго, нудно и для каждого индивидуально
Разговор об речевом центре, а не остальных частях мозга. А в речевом или логика или речь.
По сути они смогли построить нейронки, что смогли связать волны активности речевого центра и звуковые, издаваемые человеком.
Детали я в статье их не читал, ибо ни времени на повторение их работы нет, ни денег на такую дорогую игрушку.
если человек нем от рождения, какие у него активности в речевом центре?
Так учатся и немые речи человеков и развивают активность в этом центре.
я так понял, учатся нейросети на данных из слухового центра (или как там оно)
Но ты можешь сходить по ссылкам и почитать откуда данные берутся. И более того, слухового центра в мозге нет, есть слуховой нерв и только.
Мышление и речь это разные вещи.. Я уже не говорю что языки разные.. Скорее всего фейк
Очень круто.. Но вроде давно уже что-то куда-то транслировали с мыслей..
Подозреваю, что для повторения подобного надо на транслирующем мысли, долго обучать систему, что бы она знала, какие участки мозга за что отвечают. В идеале конечно может помочь людям с проблемами речи, если цена будет доступной.
До идеала еще очень далеко. Даже вопрос в повторимости их результатов еще.
Но, не вложив в это кусков
IMHO работа не сильно полезная. Просто уже потому, что у мозга есть десятки других способов коммуникации даже если он подопытный умеет говорить.
Проблема в чём: что к мозгу подключиться так просто нельзя. Чтобы это юридически стало допустимо, нужно чтобы потенциальная ценность перевешивала риск. И вот всё что ниже этого порога — никогда не выйдет за рамки статей, зачастую псевдонаучных. Потому что для научных — нужна повторяемость эксперимента.
PS. Ну и банально могли приятнуть за уши, подогнать желаемое под действительное, и отбросить те данные которые шли в разрез с желаемым.
IMHO работа не сильно полезная.
Да не. Суметь перевести волны мозговой активности в речь (текст, звук — не важно) — это очень круто.
С воспроизводимостью — это легко проверить, если у тебя есть около 10 кусков баксов на железо.
Ну и думаю, что те ребята уже кормятся от силовиков. Силовики очень падки на подобное. Вот те же «детекторы лжи» вполне успешно применяются, а в них всё еще более криво.
З.Ы. Ну и там на хабре есть ссылка на оригинальную статью.
Ну а проверить их — у меня нет времени на проверку. Работу делать надо. А проверить — это полгода работы.
Ты хочешь сказать, что там бесконтактные датчики, без непосредственной инвазии в мозг?
Да. Шапочка с датчиками. Вопрос в цене этой шапочки и количестве датчиков и собственно железке, что ЭЭГ оцифровывает.
Ну и для прогона алгоритма 1080-2080TI должно хватить.
Значит это работать не может по дефолту. Там не меньше чем МРТ понадобится, а ещё более правильно — непосредственное подключение в нейронную сеть.
И вот с этим сейчас проблемы. Потому надо тестить на кроликах или мышках. С людьми тест не проканает уже потому, что людей достаточно просто заинтересовать в подделке, и селектировать наиболее согласных.
Если бы это имело хоть какие-то шансы, там бы не 2080TI, а целый кластер выделили, лишь бы не задерживать исследования и первыми запатентовать технологию.
Объясняю, в чём суть проблемы: мозг ассоциативен. Чтобы снять даже в очень грубом приближении ассоциацию, нужно понимать что на селекторе, который зовётся ретикулярная активизирующая система. Как в сессионном зале: болтать могут все, но микрофон включён только один.
Если же снимать уже усиленные управляющие сигналы на голосовые связки или на дыхание — согласись, уже не то. К тому же их без инвазивного датчика снять тоже сложно, поскольку там постоянный ток, а излучает только переменный. Так что снят будет в лучшем случае сигнал изменения. И не положительного, а отрицательного — отрицательная обратная связь работает с более высокой частотой, так уж устроена химия.
Насчёт количества датчиков — что мешает взять естественные? Берём пентанол натрия, и развязываем язычок. И так куда более достоверно снимаем показатели, чем лишний раз убеждаемся в бесполезности внешних датчиков в системах с потенциальным управлением.
Если кратко, датчик — и есть камень преткновения. Будет датчик — будет развитие. Нет датчика — всё остальное не имеет смысла, и загнётся даже если достигнут этап завершения и есть положительная корреляция. Так работает экономика. НЕ КУПЯТ. Скорее инвесторы вкинутся в какое-нить псевдонаучное фуфло, которое тем не менее «показывает» красивые результаты. Здесь так и порешили: дать фуфлишка.
Так и что будут снимать датчики? Человек думает не словами и смыслом содержащимся в словах.
Это не совсем так. В этом и фокус, что когда собирается сказать — формируются частотные сигналы, как если бы сказал. Но не запускается сам механизм озвучивания. Одно из простых свидетельств: люди разговаривают во сне. Если бы думали смыслом, не было бы сформированных задержек и модуляции.
Кстати, одно из главных требований при обучении скорочтению: не проговаривать про себя. Это замедляет чтение в несколько раз.
Почему и говорю, что снимать данные проще с уже внешних интерфейсов, куда сигнал поступает уже усиленным. Подключение к мозгу не то чтоб сложно, просто дорого и велика цена ошибки. Ну не задумала природа вскрываемый корпус и UART-контактов для отладки забыла дать :)
Считай это фигурой речи. На сегодняшний день у меня есть подозрение что воспринимая речь возникают какие-то ассоциативные отношения кои каждый и считает смыслом. Точнее не скажу. Скорее это какой-то полуфабрикат из состояния нейронной сети.
Ничего не понял. Набор слов какой-то. Где здесь смысл?
А вообще люди говорят не фонемами, а синтагмами. Но синтагмы не случайны, а формируются из слов, но слова не произносятся явно, а часто модифицируются, сливаются и т.д.
Если посмотреть внимательнее, на то, что они сделали, то чуши там море, но не в том, что вы тут обсуждаете. Более того, если глянуть на код. то сразу становиться понятно, что это поделка
И лично мне больше всего удивительно то, что у них что-то даже получилось. Да, есть шанс, что случайно у них так всё сошлось. Но если не случайно, то при серьезной доработке их подхода может получиться много интересного.
Понятно не задницах мира — ибо железо для повторения их эксперимента не дешевое и хрен тут кто проинвестирует в подобное.
То есть пофантазировал, что есть некое понятие «смысл», но что это не знаешь. А может его вообще нет смысла того, а это всего-лишь слово ни о чем.
Может быть и нет понятия «смысл». Потому нет смысла обсуждать пост в котором тоже не вижу смысла.
это поделка1-2 студней.
там коду минимум 2 года
Да, есть шанс, что случайно у них так всё сошлось.
весь этот ваш машинлернинг это подгон случайностей под статистику
весь этот ваш машинлернинг это подгон случайностей под статистику
Чево? Что за случайный набор слов (хоть и согласованный по падежам)?
55 комментариев
Добавить комментарий Подписаться на комментарииОтписаться от комментариев