Proyección de ondas electromagnéticas y uso de dispositivos neurotecnológicos para provocar efectos físicos en la víctima
mind control = control mental mediante ondas electromagnéticas y dispositivos neurotecnológicos
electronic harassment = acoso mediante ondas electromagnéticas y dispositivos neurotecnológicos
remote neural monitoring = lectura de pensamientos mediante el uso de ondas electromagnéticas y dispositivos neurotecnológicos
voice to skull (v2k) = proyección de sonidos mediante el uso combinado de ondas electromagnéticas y dispositivos neurotecnológicos
gangstalking = combina acoso con tecnologias de radiacion y control mental con el acoso fisico de individuos (entran en casa, te siguen por la calle, te cruzas con ellos en lugares publicos, etc)
Targeted individual= victima de acoso por ondas electromagnéticas dirigidas y dispositivos neurotecnológicos
*****************
Denunciamos que grupos de crimen organizado probablemente relacionados con grupos de poder estan usando conjuntamente la tecnología de ondas electromagnéticas junto con implantes o dispositivos neurotecnológicos en civiles inocentes, con las siguientes capacidades:
a) de leer partes del pensamiento hablado de las víctimas (probablemente tras la lectura de los voltajes del cerebro por chips)
b) capacidad de crear voces inteligibles en las víctimas (probablemente al crear los chips voltajes en el cerebro)
c) de enfermar físicamente a la víctima mediante uso de ondas electromagnéticas y también mediante creación de corrientes o voltajes en el cuerpo por los chips
d) Capacidad para alterar y bloquear mentalmente a la víctima
probablemente mediante creación de corrientes o voltajes en el cerebro por los chips o incluso ondas electromagnéticas
1) SOBRE LECTURA DEL PENSAMIENTO HABLADO
A) Sobre DARPA
https://es.m.wikipedia.org/wiki/Defense_Advanced_Research_Projects_Agency
DARPA segun wikipedia
Wikipedia parece bastante objetiva aunque a vece falla
Esto esta extraido literalmente de la pagina anterior de wikipedia
" Algunos rumores dicen que en los 70 el Pentágono financió un proyecto para relacionar ciertos gráficos de ondas cerebrales con ciertos pensamientos con el fin de que fuera posible a través de un equipo leer los pensamientos de una persona a cierta distancia esto se ocuparía con fines de defensa según los dichos de Robert Stone.
Y uno de los proyectos activos de DARPA es DARPA Silent Talk - Un programa capaz de identificar patrones EEG de palabras y capaz de transmitirlos para comunicaciones encubiertas. [5]
Silent talk
B) Sobre Facebook
Facebook afirma, a través de un comunicado , que está progresando en el desarrollo de unas gafas que permiten al usuario escribir con la mente.
Ya hace más de dos años que la compañía de Mark Zuckerberg anunció en la conferencia anual de desarrolladores F8 que estaba trabajando en este proyecto, sin embargo, hace tiempo que no ofrecían ninguna información sobre su estado. Según afirmaron por entonces, en 2017, el dispositivo, que consistiría en unas gafas de realidad aumentada (AR), permitiría al usuario escribir palabras simplemente imaginando que está hablando. El sistema no sería invasivo y, a su vez, no haría falta decir nada ni realizar ningún movimiento para que funcionase.
En el comunicado, Facebook se hace eco del trabajo realizado por unos investigadores de la Universidad de California, ubicada en San Francisco (USCF), que han conseguido gracias a su trabajo decodificar un pequeño grupo de palabras en un monitor en tiempo real mientras hablaban.
que el objetivo de la universidad estadounidense es desarrollar un sistema que pueda ayudar a las personas con afecciones neurológicas. De este modo, esperan que este alcance una velocidad de decodificación de 100 palabras por minuto, con un vocabulario de 1.000 palabras y con una tasa de error por palabra inferior al 17 por ciento.
El jefe del proyecto de Facebook es un exdirector de DARPA
*****************************
Y también de los investigadores de Meta (Facebook) descifrando lo que uno oye a través de las ondas cerebrales
https://time.com/6210261/meta-ai-brains-speech/
Investigadores de Meta , la empresa matriz de Facebook , están trabajando en una nueva forma de comprender lo que sucede en la mente de las personas. El 31 de agosto, la compañía anunció que los científicos investigadores en su laboratorio de IA han desarrollado una IA que puede “escuchar” lo que alguien está escuchando, mediante el estudio de sus ondas cerebrales.
2022
C) Sobre Neuralink
https://www.techspot.com/amp/news/80991-elon-musk-neuralink-aims-implant-mind-reading-sensors.html
Neuralink de Elon Musk apunta a implantar sensores de lectura mental en cerebros humanos el próximo año
Mirando hacia el futuro: Neuralink, la compañía de Elon Musk que tiene como objetivo crear "interfaces cerebro-máquina de ancho de banda ultra alto para conectar humanos y computadoras", ha revelado por primera vez parte de su tecnología en desarrollo. Esto incluye un dispositivo inalámbrico implantado en el cerebro que podría permitir a los usuarios controlar teléfonos inteligentes y computadoras con sus pensamientos.
Neuralink ha desarrollado hilos flexibles, más delgados que un cabello humano, que pueden inyectarse en el cerebro para detectar la actividad neuronal. También ha construido un robot que utiliza una aguja de 24 micras para incrustarlos automáticamente.
Los dispositivos solo se han probado en animales hasta el momento, incluidas ratas y monos, pero Neuralink espera obtener la aprobación de la FDA para ensayos clínicos en humanos para el próximo año. Si funciona según lo previsto, los pacientes podrían escribir mensajes de texto y correos electrónicos simplemente pensando en las palabras. También podrían mover el cursor del mouse y navegar por las páginas web solo con sus mentes.
D) Sobre "Alter Ego" del MIT
https://cadenaser.com/ser/2018/04/05/ciencia/1522921010_565951.html
habla silenciosa, también conocida como subvocalización, es un hábito muy común, sobre todo entre los lectores, que consiste en decir palabras en nuestra mente sin la necesidad de expresarlas mediante la voz. El dispositivo desarrollado por el MIT aprovecha las leves señales que se producen en los músculos durante este hábito y lo interpreta para llevar a cabo las acciones deseadas.
de los altavoces inteligentes, el Instituto Tecnológico de Massachusetts (MIT) ha decidido ir un paso más allá. Un grupo de investigadores del centro ha creado recientemente AlterEgo, un sistema portátil que permite al usuario conversar con cualquier dispositivo sin la necesidad de decir ni una sola palabra. Todo ello a través del fenómeno conocido como habla silenciosa.
E) Instituto Weill de neurociencia
https://www.nature.com/articles/s41586-019-1119-1
La tecnología que traduce la actividad neuronal en habla sería transformadora para las personas que no pueden comunicarse como resultado de deficiencias neurológicas.
Las redes neuronales recurrentes primero decodificaron directamente la actividad cortical registrada en representaciones del movimiento articulatorio y luego transformaron estas representaciones en acústica del habla.
Las representaciones articulatorias decodificadas se conservaron en gran medida entre los hablantes, lo que permitió que un componente del decodificador fuera transferible entre los participantes.
Además, el decodificador podía sintetizar el habla cuando un participante imitaba oraciones en silencio. Estos hallazgos hacen avanzar la viabilidad clínica del uso de la tecnología neuroprotésica del habla para restaurar la comunicación hablada.
*******************************
Revista científica IOPscience
Brain2Char: a deep architecture for decoding text from brain recordings - IOPscience
https://iopscience.iop.org/article/10.1088/1741-2552/abc742/meta
RESULTADOS PRINCIPALES
En 3 de 4 participantes Brain2Char consiguió tasas de error en palabras traducidas menores al 10.6%, 8.5%, y 7.0% respectivamente con un vocabulario de palabras cerrado de 1200 a 1900 palabras.
👆👆
(2020 ) Edward F. Chang
*********************************
https://spectrum.ieee.org/amp/brain-computer-interface-speech-2658503518
Este implante convierte las ondas cerebrales en palabrasUna interfaz cerebro-computadora descifra los comandos destinados al tracto vocal
En el enlace hay un YouTube donde se ve en directo a la brain computer interface traduciendo pensamientos a texto
El grupo de investigación se centra en las partes de la corteza motora del cerebro que envían órdenes de movimiento a los músculos de la cara, la garganta, la boca y la lengua.
👆👆 Edward Chang (Octubre 2022)
F) UNIVERSIDAD DE STANFORD
Hemos conocido el desarrollo de una de estas "Brain Computer Interfaces", que permitirá al paciente poder transformar sus pensamientos en texto y que lo ha hecho rompiendo un récord de velocidad.
Pudiendo transmitir información a un ritmo de 62 palabras por minuto, lo que supone realizar esa titánica tarea tres veces más rápido de lo previamente investigado
El "Brain Computer Interface" utilizado se compone de un par de electrodos implantados en el córtex cerebral, la región encargada de controlar el movimiento del cuerpo.
G) FORO ECONÓMICO MUNDIAL DE DAVOS
https://www.popularmechanics.com/technology/a42626684/artificial-intelligence-can-decode-your-braninwaves/
Nita Farahany (Universidad de Duke) "La batalla por tu cerebro" en el Foro Económico Mundial de Davos de enero del 2023
Según ella, la tecnología para decodificar nuestras ondas cerebrales ya existe. Y es probable que algunas empresas ya estén probando la tecnología.
“La inteligencia artificial ha permitido avances en la decodificación de la actividad cerebral de formas que nunca antes creímos posibles. Lo que piensas, lo que sientes, son solo datos, datos que en grandes patrones pueden decodificarse usando inteligencia artificial”.
“El futuro próximo, y me refiero al futuro a corto plazo, estos dispositivos se convierten en la forma común de interactuar con todos los demás dispositivos. Es un futuro emocionante y prometedor, pero también un futuro aterrador."
"La vigilancia del cerebro humano puede ser poderosa, útil, útil, transformar el lugar de trabajo y mejorar nuestras vidas. También tiene una posibilidad distópica de ser utilizado para explotar y traer a la superficie nuestro ser más secreto”
“Cuando combinas la actividad de las ondas cerebrales con otras formas de tecnología de vigilancia”, dijo Farahany, “el poder se vuelve bastante preciso”.
2) SOBRE LECTURA DEL PENSAMIENTO VISUAL
A) Equipo de Berqueley en 1999
Yang Dan y su equipo han logrado decodificar las señales de los electrodos implantados en el tálamo de un gato de reconstruir lo que vio este gato.
https://m.youtube.com/watch?v=FLb9EIiSyG8
En este Youtube se ve el éxito del experimento de Yang Dan. Dura 1 minuto y treinta segundos, las imágenes que descodifican del gato en tiempo real salen cuadriculadas
El equipo utilizó una serie de electrodos incrustados en el tálamo (que integra toda la información sensorial del cerebro) de gatos de ojos agudos.
Usando filtros matemáticos, los investigadores decodificaron las señales para generar películas de lo que vieron los gatos y pudieron reconstruir escenas reconocibles y objetos en movimiento.
B) Universidad de Berqueley en 2011
https://news.berkeley.edu/2011/09/22/brain-movies/
El equipo del profesor Jack Gallant reproduce videos de las imágenes en directo que ve una persona a partir de la actividad del cerebro medida con resonancia magnética funcional
Ya en el 2008 hiciera el mismo experimento pero con fotos
C) Equipo de Rajesh Rao y Jeff Ojemann de la Universidad de Washington en el 2016
https://www.livescience.com/amp/53535-computer-reads-thoughts-instantaneously.html
Los investigadores pueden predecir lo que la gente está viendo basándose en las señales eléctricas provenientes de los electrodos implantados en su cerebro.
Los implantes se los colocaron en el lóbulo temporal.
La computadora pudo predecir, con un 96 por ciento de precisión, lo que la persona realmente vio.
D) Universidad Rusa en 2019
Esta inteligencia artificial es capaz de mostrarte en qué estás pensando: sólo necesita analizar tus ondas cerebrales
un equipo de científicos rusos, compuesto por investigadores tanto de la compañía Neurobotics como del Instituto de Física y Tecnología de Moscú (MIPT), han diseñado una tecnología capaz de reconstruir las imágenes que está visualizando una persona en dicho momento. Y de hacerlo, además, sin necesidad de agresivos implantes cerebrales.
esta técnica tan sólo requiere del uso de los típicos electrodos, de tal manera que sean capaces de elaborar la electroencefalografía (EEG) del sujeto. A partir de esta información, los científicos han recurrido a redes neuronales para que éstas 'traduzcan' en tiempo real la EEG y puedan recrear la información visual que está captando el cerebro.
En el enlace hay un vídeo del experimento
E) Equipo de Jacob Robinson de la Universidad Rice trabajando para DARPA dentro del programa N3 en el 2019
El equipo dirigido de neuroingenieros se embarca en un ambicioso proyecto de cuatro años para desarrollar tecnología de auriculares que pueda vincular directamente el cerebro humano y las máquinas sin necesidad de cirugía.
Como primera prueba de concepto, el equipo planea transmitir imágenes visuales percibidas por un individuo a la mente de los pacientes ciegos.
F) Equipo de Rafael Yuste director de "Brain Initiative" en el 2019.
https://www.reuters.com/article/us-global-tech-lawmaking-analysis-trfn-idUSKBN2BL1RH
"Podríamos hacer que el animal viera algo que no vio, como si fuera una marioneta", dijo a la Fundación Thomson Reuters en una entrevista telefónica.
"Si podemos hacer esto hoy con un animal, seguro que podemos hacerlo mañana con un humano".
Los avances en la ciencia del cerebro, como los realizados por el equipo de Yuste, han hecho posible penetrar en el cerebro mediante censores e implantes y acceder a cierto grado de actividad neuronal.
G) Universidad de Radboud (Países Bajos) (2022)
https://petapixel.com/2022/08/23/mind-reading-technology-translate-brainwaves-into-photos/
Los investigadores mostraron fotos de rostros a dos voluntarios dentro de un potente escáner de resonancia magnética funcional (fMRI) de lectura cerebral.
Mientras los voluntarios miraban las imágenes de los rostros, la fMRI escaneó la actividad de las neuronas en las áreas de su cerebro responsables de la visión.
Los investigadores introdujeron esta información en el algoritmo de inteligencia artificial (IA) de una computadora que podría generar una imagen precisa basada en la información de la resonancia magnética funcional.
El investigador de IA y neurocientífico cognitivo, Thirza Dado , que dirigió el estudio, cree que estos impresionantes resultados demuestran el potencial de los sistemas fMRI/AI para leer la mente de manera efectiva en el futuro, según Mail Online .
“Ya estamos desarrollando cámaras de implantes cerebrales que estimularán los cerebros de las personas para que puedan volver a ver”, dice Dado.
H) UNIVERSIDAD DE OSAKA (2023)
Eso es lo que han conseguido investigadores de la Universidad de Osaka, después de un estudio (PDF) que ha durado más de una década
En los experimentos, los investigadores obtuvieron los datos de actividad cerebral usando resonancia magnética funcional (fMRI), capaz de generar imágenes de actividad de las diversas regiones cerebrales. El sistema que crearon era capaz de interpretar esos datos para crear imágenes en alta resolución sobre lo que los voluntarios estaban pensando.
En concreto, en las pruebas a los voluntarios se les mostraron varias imágenes, y la IA era capaz de “interpretar” su actividad cerebral y crear una imagen muy parecida a la original que habían visto con sus propios ojos. Los resultados hablan por sí mismos, y aunque las imágenes resultantes no son exactamente iguales a las originales, se mantiene la idea general.
3) CONCLUSION:
Internet fue desarrollado para uso militar en 1969 pero no llego a la sociedad civil hasta el 1981
El GPS fue desarrollado por EEUU para uso militar en 1979 pero no llego a la sociedad civil hasta el 1995
Con la tecnologia de lectura de pensamientos pasa igual, empezo a investigarse por los 60 y ahora de la mano de Zuckerberg y Elon Munsk parece que va a llegar al fin a la sociedad civil.
Cuantos años van de retraso??? 20 años??? 30 años???
- Log in to post comments