달력

62025  이전 다음

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30

과학자들이 뇌 신호 로부터 말하기

인공 보이스 보이스는 두뇌가 말하고자하는 것을 디코딩하고 (대부분) 이해할 수있는 말을 발생 시키며, 근육 운동은 필요하지 않습니다.

"내 머리 속에서 나는 모든 문장을 10 번 뒤집어 쓰고, 한 단어를 지우고, 형용사를 추가하고, 마음으로 문안을 단락별로 배웁니다."라고 Jean-Dominique Bauby는 회고록에 "The Diving Bell and the Butterfly. "저널리스트이자 편집인 인 Bauby는 척추 부상으로 인한 마비 전후의 삶을 회상하면서 사실상 근육을 움직일 수 없었습니다. 그는 눈꺼풀을 깜박여 편지로 책 편지를.습니다.

수천명의 사람들이 사고 또는 전투, 뇌졸중, 또는 근 위축성 측삭 경화증 또는 ALS와 같은 신경 퇴행 장애와 같이 말하기 능력을 못쓰게하는 부상의 결과로 의사 소통의 비슷한 방법으로 축소되었습니다.

이제 과학자들은 뇌의 보컬 의도를 해독하고 근육을 움직일 필요가없고 입안에있는 사람들까지도 이해할 수있는 말로 변환하는 가상 인공 보이스를 개발했다고보고합니다. (물리학 자이자 작가 인 스티븐 호킹 (Stephen Hawking)은 뺨에 근육을 사용하여 키보드 문자 를 입력 했으며, 컴퓨터는이를 음성으로 합성했습니다.)

연구진의 일원이 아니었던 잭슨빌의 메이요 클리닉 (Mayo Clinic)의 신경 학자이자 신경 과학자 인 안토니 리 타치 오 (Anthony Ritaccio) 박사는 "그것은 엄청난 일이며, 우리는 뇌 신호를 디코딩함으로써 우리를 연설 복원에 대한 또 다른 차원으로 끌어 올린다"고 말했다. .

연구원은 다른 가상 연설 도구를 개발했습니다 . 문자와 단어를 인식하는 책임이있는 뇌 신호를 해독하여 작동합니다. 말의 구두 표현입니다. 그러나 이러한 접근법은 자연스러운 말하기의 속도와 유동성이 부족합니다.

저널에 수요일에 설명 된 새로운 시스템, 자연 , 해독 보컬 이동을 안내 뇌의 모터 명령을 연설 - 혀의 탭의 입술의 축소 - 및 스피커의 자연적인 리듬을 대략 이해할 수있는 문장을 생성합니다.

전문가들은 새로운 작업이 더 많은 실험과 개선 작업을 거쳐 가능한 것의 미리보기 인 "원리 증명"을 대표한다고 말했다. 이 시스템은 정상적으로 말하는 사람들을 대상으로 테스트되었습니다. 일반적인 뇌졸중과 같은 신경 학적 상태 나 부상으로 디코딩을 어렵게하거나 불가능하게 만들 수있는 사람들에게는 아직 테스트되지 않았습니다.

새로운 임상 시험을 위해 캘리포니아 대학 샌프란시스코 UC 버클리 대학의 과학자들은 병원에 간질 수술을받은 5 명의 사람들을 모집했다.

간질이있는 많은 사람들은 약물 치료를 잘 못하고 뇌 수술을 받기도합니다. 수술 전에 의사는 발작이 시작된 각 사람의 뇌에서 "핫 스폿"을 찾아야합니다. 이것은 두뇌 안에 또는 그것의 표면에 두는 전극으로하고, 전기 폭풍을 들으려고 귀를 기울인다.

이 위치를 정확히 지적하는 데 몇 주가 걸릴 수 있습니다. 잠시 동안 환자들은 운동과 청각 신호 전달에 관여하는 뇌 영역 또는 그 근처에 이식 된 전극을 통해 하루를 지냅니다. 이 환자들은 종종 이러한 임플란트에 피기 백하는 추가 실험에 동의합니다.

UCSF의 5 명의 환자가 가상 ​​음성 생성기를 테스트하기로 동의했습니다. 각각 하나 또는 두 개의 전극 배열이 삽입되었습니다. 수백 개의 작은 전극이 들어있는 스탬프 크기의 패드가 뇌의 표면에 배치되었습니다.

각 참가자가 수백 문장의 문장을 암기 할 때, 전극은 운동 피질의 뉴런의 발사 패턴을 기록했다. 연구진은 자연스러운 발언 중에 발생하는 환자의 입술, 혀, 후두 및 턱의 미묘한 움직임을 패턴에 연관시켰다. 그런 다음 팀은 이러한 움직임을 말한 문장으로 번역했습니다.

네이티브 영어 사용자는 가상 목소리의 유창함을 테스트하기 위해 문장을 듣도록 요청 받았습니다. 가상 시스템으로 말한 내용의 70 % 정도는 이해할 수있는 것으로 나타났다.

UCSF의 신경 외과 교수 인 에드워드 장 (Edward Chang) 박사는 "두뇌 활동 유도 관절을 해독함으로써 우리는 두뇌의 사운드 표현을 추출하여 합성 된 연설보다 정확하고 자연스러운 소리를 시뮬레이트 할 수 있었다"고 전했다 . 새로운 연구의 저자 . 그의 동료들도 UOCF의 Gopala K. Anumanchipalli와 UCSF와 Berkeley와 제휴 한 Josh Chartier였습니다.

이전의 임플란트 기반 통신 시스템은 분당 약 8 단어를 생성했습니다. 새로운 프로그램은 약 150 분의 자연스런 발화 속도를 만들어냅니다.

연구자들은 또한 한 사람의 두뇌 활동을 기반으로 한 합성 음성 시스템이 다른 사람에 의해 사용 및 적응 될 수 있다는 것을 발견했다. 즉, 기성품 가상 시스템이 언젠가 사용할 수 있다는 표시이다.

이 팀은 시스템을 테스트하기 위해 임상 실험으로 이동할 계획입니다. 가장 큰 임상 과제는 적절한 환자를 찾는 것일 수 있습니다. 사람의 말을 무력화시키는 뇌졸중은 종종 음성 관절을 지원하는 뇌 영역을 손상 시키거나 닦아냅니다.

그럼에도 불구하고 알려진 바와 같이 뇌 - 기계 인터페이스 기술 분야는 전 세계 팀이 특정 부상에 맞게 조정할 수있는 기능을 추가함으로써 급속도로 발전하고 있습니다.

"계속 진행됨에 따라에 모리 대학 (Emory University)과 조지아 공과 대학 (Georgia Institute of Technology)의 생물 의학 엔지니어 인 Chethan Pandarinath와 Yahia J. Ali는 다음과 같이 덧붙여 설명했습니다."언어 장애인이 자유롭게 마음과 말을 표현할 수 있기를 바랍니다. 주변 세계와 다시 연결하십시오. "

Posted by 100명
|