Rafael Yuste, neurocientífico de la
Universidad de Columbia y padre del proyecto BRAIN, mantiene una firme
convicción: debemos prepararnos ahora para las importantes consecuencias éticas
y sociales que el uso de las neurotécnicas y la inteligencia artificial tendrá
en los próximos años.
¿Qué es el proyecto BRAIN?
Se trata de la mayor inversión en la historia destinada a
impulsar la investigación del cerebro. El objetivo del proyecto es desarrollar
nuevas técnicas para poder leer, modificar y descifrar la actividad neuronal.
¿Permitirán estas técnicas curar las
enfermedades cerebrales?
La finalidad que se persigue no es directamente curar
enfermedades neurológicas y mentales, sino desarrollar la tecnología para
comprender el cerebro y poder curarlo.
En pocas palabras, primero hay que
saber cómo funciona este órgano para poder sanarlo.
Exacto. Imaginemos una casa en la que la bandera que ondea
en el tejado es curar los trastornos mentales. En el proyecto BRAIN no somos
los arquitectos que intentan erigir toda la casa, solo somos los constructores
que están colocando los cimientos. Primero hay que desarrollar estas técnicas
para que, después, en el futuro, alguien pueda entender estas enfermedades;
aunque no sabemos cuándo ni quién.
Usted sostiene que se necesita
regular el uso de las neurotécnicas, ¿por qué?
Las técnicas que se están desarrollando en relación con
nuestro proyecto, las cuales sirven para descifrar y alterar la actividad de
las neuronas, son cada vez mejores. Por ello, las consecuencias de utilizarlas
resultan cada vez más serias. Por un lado, pueden ofrecer una mayor y mejor
ayuda a los pacientes, pero también pueden usarse de manera que no sean
beneficiosas para la humanidad. Estamos viendo, y vemos venir, situaciones en
las que las personas se encuentran desprotegidas ante el uso pernicioso de estas
técnicas. Debemos hacer algo, porque no tenemos unas reglas o directrices para
su utilización. En este caso, la técnica va por delante de la sociedad.
¿Está sucediendo ya?
Ahora mismo hay decenas de miles de pacientes que tienen
implantes cerebrales, electrodos que estimulan su cerebro, para ayudarles en
distintos tipos de enfermedades. No es algo que sucederá en el futuro, sino que
ya ocurre en la actualidad. Las técnicas que se están desarrollando permiten
que estos implantes tengan mucha más potencia e interfieran en las actividades
mentales. En el mundo existen muchos casos de interfaz cerebro-ordenador en los
que se consigue que una persona con parálisis mueva un brazo robótico. Por
ejemplo, en los últimos mundiales de fútbol en Brasil, el chute inicial lo dio
un joven paralítico que, mediante el cerebro, comandaba un ordenador que, a su
vez, controlaba sus piernas y brazos robóticos. No es ciencia ficción, ya ha
ocurrido. De hecho, las neurotécnicas se están aplicando junto con los
algoritmos de inteligencia artificial.
¿Cuáles son los principales problemas
en este terreno?
Por un lado, existen aspectos humanos fundamentales que se
hallan desprotegidos, como la privacidad mental, es decir, la información sobre
nuestra mente, la identidad y la agencia personal [libre albedrío]. Por otro
lado, es necesario regular la potenciación mental y física de las personas. En
la actualidad, no hay ninguna orientación ni ley que regule este aspecto.
También surgen cuestiones de justicia social: estas técnicas tienen que ser
accesibles a toda la población, no solo a las personas que puedan pagarlas. Y
por último, existen situaciones de sesgo: estas técnicas, combinadas con la
inteligencia artificial, presentan unos sesgos intrínsecos que perjudican a una
parte de la población de una manera discriminatoria.
¿De qué forma la potenciación mental y
física puede llegar a ser problemática?
Somos seres sociales y necesitamos sentirnos similares a los
demás. La introducción de una tecnología que expanda radicalmente las capacidades
mentales o sensoriales puede generar presiones para que las personas que no
desean ser percibidas como distintas las adopten. Si no hay un acceso
equitativo, se generarán nuevas formas de discriminación. También resulta fácil
pensar en una posible carrera armamentística para desarrollar armas que
exploten la potenciación con el fin de producir «supersoldados».
¿Y a qué sesgos intrínsecos se
refiere?
A sesgos raciales, de género, y otros. Un estudio del año
2015 desveló que los anuncios de ofertas laborales que presenta el algoritmo de
Google a los usuarios ofrecen un salario más bajo a mujeres que a hombres. En
el sistema judicial estadounidense, el año pasado se conoció que los algoritmos
que la policía utiliza para predecir la reincidencia criminal de un acusado en
un juicio atribuyen erróneamente una mayor probabilidad de cometer un crimen a
las personas negras que a las blancas con antecedentes similares.
¿Podrían estas técnicas poner en
riesgo la privacidad de la vida mental? ¿Es similar a lo que estamos viendo con
Facebook?
Evidentemente, el problema de la privacidad existe en
distintos contextos. Pero me preocupan más las situaciones específicas sobre la
privacidad mental de las personas, es decir, la posibilidad de acceder a la
información de nuestra mente, tanto consciente como subconsciente. Eso está
relacionado con descifrar los patrones de pensamiento que suceden dentro del
cerebro, una acción mucho más seria que copiar los datos a través de la cuenta
de Facebook.
¿De qué forma podrían acrecentar las
desigualdades sociales?
Estas tecnologías van a ser muy caras y permitirán aumentar
la capacidad mental de las personas. Por esta regla de tres, una consecuencia
lógica es que pueden aumentar las desigualdades entre grupos sociales o países.
¿Qué medidas se pueden tomar?
Proponemos varias líneas de actuación. Una de ellas consiste
en proporcionar formación ética a los ingenieros y científicos que diseñen
tanto neurotécnicas como inteligencia artificial. Proponemos que se siga el
modelo de la deontología médica. Las reglas éticas que a lo largo de la
historia los médicos han cumplido a través del juramento hipocrático deben
aplicarse también a estas profesiones.
Es importante legislar.
Así es. La otra propuesta que planteamos es que este tema
llegue a organizaciones internacionales, como las Naciones Unidas o el
Parlamento Europeo, por ejemplo. Consideramos que debe formarse una comisión
que aborde el problema de las orientaciones éticas para la neurotecnología y la
inteligencia artificial. En relación con ellas, es importante que se reconozcan
y se protejan unos derechos básicos, los neuroderechos, los cuales deben
incluirse en la Declaración Universal de los Derechos Humanos. A partir de ahí,
tendrían que extenderse a los sistemas legales de los distintos países.
¿Cuán avanzado está el proceso? ¿Hay
algún borrador inicial que dé forma o contemple esos neuroderechos?
Hace unos meses publicamos en la revista Nature una
propuesta concreta para añadir los neuroderechos a la Declaración Universal de
los Derechos Humanos. Todavía nos encontramos en una fase inicial. Hay diversas
organizaciones interesadas en que se avance en esa dirección. Por mi parte,
cada vez percibo un mayor interés por el asunto y estoy teniendo las primeras
reuniones con Gobiernos de distintos países, pero aún no hay nada concreto.
Las empresas que desarrollen las
neurotécnicas deben responder por la seguridad y la privacidad de sus
productos, afirma. ¿Cómo se consigue ese objetivo?
Las empresas deben ser responsables legalmente de los
problemas que puedan surgir. Por esa razón, es indispensable disponer de una
legislación que regule el sector. Del mismo modo que los bancos responden
cuando hay un problema financiero, las empresas que desarrollen neurotécnicas
tienen que responder cuando se haga un mal uso de las herramientas que
desarrollen.
¿Legislar o prohibir?
Prohibir no es la solución, porque podría surgir un mercado negro.
En cambio, se debería promover un debate abierto y en profundidad. Es mejor
hacer las cosas abiertamente que prohibir de golpe.
¿Se debe empezar ahora?
Debemos reflexionar con antelación sobre las repercusiones
sociales de los avances científico-tecnológicos. Si vemos los problemas por
adelantado podemos tomar medidas para prevenirlos.
No hay comentarios:
Publicar un comentario
Nota: solo los miembros de este blog pueden publicar comentarios.