Neuroética e Inteligência Artificial

É indispensável evitar que as Neurociências, ao permitirem (sob rigoroso escrutínio de comissões de ética) controlar comportamentos em casos de patologia, se constituam como instrumento para formatação da sociedade.

As Neurociências têm providenciado saberes com grande impacto na medicina, educação, justiça. Empresas como a Google, Microsoft, Apple e Facebook, para citar as maiores, em conjunto com o conhecimento que advém da Inteligência Artificial (IA), utilizam-nos em ‘neuromarketing’, entre outras aplicações. O cérebro, na sua diversidade neurofisiológica, pode racionalizar os estímulos travando o mais possível atitudes não-éticas. No entanto, a ideia de criar agentes equipados com IA, que possam comportar-se em desconformidade com a ética humana, é causa de enorme preocupação.

Os processos cognitivos que estão na base das atitudes éticas e não-éticas poderão ser extrapolados para a IA. Cientistas computacionais estão a desenvolver IA que aprende a aprender e se adapta continuamente (memória adaptável através de plasticidade sináptica), mimetizando o que sucede com o cérebro humano na sua relação com a mente. Trata-se de ‘machine-learning algorithms’ que replicam redes neuronais, que comunicam através de conexões de intensidade variável, recorrendo a processos que se configuram como “neuromodulação”. Tem paralelo na neuromodulação química das sinapses, induzida por psicofármacos e/ou pela estimulação cerebral (eléctrica e/ou magnética) não invasiva, ou estimulação cerebral profunda. A grande questão ética é a legitimidade de utilizar estes procedimentos como potenciadores da actividade cognitiva em indivíduos ‘normais’. É indispensável evitar que as Neurociências, ao permitirem (sob rigoroso escrutínio de comissões de ética) controlar comportamentos em casos de patologia, se constituam como instrumento para formatação da sociedade; tentação, sustentada por radicalismos ideológicos, agora com o recurso a novos e tão robustos meios neurotecnológicos (em muitos casos sem qualquer regulamentação ética).

Conhecer localizações no cérebro onde são tomadas as decisões, quais os circuitos neuronais envolvidos, i.e, ‘dar substância biológica’ aos conceitos da Ética, é o objecto de estudo das Neurociências da Ética, aplicando a metodologia científica e, quando possível, a experimental. Grande parte dos avanços resultou do intenso e crescente desejo de conhecer as bases neuronais do comportamento, da personalidade, da consciência, e dos estados de transcendência espiritual, fazendo uso de neuro-imagiologia funcional, implantes cerebrais, interfaces cérebro-máquinas. As Neurociências da Ética investigam ainda as funções cerebrais que definem as nossas noções de Liberdade, Identidade pessoal, Intenção, Decisão moral, i.e, saber quais as áreas cerebrais mais activas, quais os circuitos envolvidos, quais os mediadores químicos que operam nas sinapses especificamente reforçadas para o estabelecimento daqueles conceitos.

É da maior importância saber se o raciocínio ético é meramente uma variante do pensamento racional. Será que quando tomamos decisões éticas o fazemos da mesma forma como quando resolvemos uma questão aritmética? A ideia do ‘Neuroessencialismo’, em que, mais do que os nossos genes, são os nossos cérebros que definem o que nós somos e para onde vamos; como são os nossos cérebros que, em última análise, vão decidir os progressos das Neurociências, gerando uma função circular, cujo conhecimento para muitos neurocientistas (a ‘última fronteira do conhecimento’) será inatingível (conhecer o cérebro com o próprio cérebro?). Os progressos neste conhecimento dependem também da IA, que tem sido decisiva nos avanços da matemática, engenharia, robótica, biologia computacional, comunicação, economia, ciências da saúde, e muitas outras.

No entanto, não podemos ignorar aspectos potencialmente ‘temíveis’ e ansiogénicos, que os especialistas em IA têm vindo a considerar: o medo do desconhecido; o medo do mau uso da IA: uso criminoso, e.g. ciberataques, o uso em saúde com perda da ‘Arte’ (humanidade, compaixão…) na prática da medicina, não atendendo às diferenças de cada um de nós durante o acto(s) médico(s); o medo de criar prioridades sociais, emprego/desemprego; o medo de os donos das máquinas serem muito ricos e poderosos e todos os outros muito pobres; medo de um cenário de pesadelo, em que os humanos poderão não ser de todo necessários, avançando alguns especialistas, como Hintze, Professor de Integrative Biology & Computer Science and Engineering, na Michigan State University, que tal poderá, eventualmente, acontecer dentro de 50 a 250 anos dependendo da rapidez evolutiva da IA.

Como conciliar os conhecimentos provenientes das Neurociências com uma sociedade estável, sem afectar a diversidade e a liberdade individual? Antes da existência de comissões de Ética para as Ciências da Vida, alguns dos estudos de investigação experimental (em animais de laboratório após escrutínio pelas comissões de Ética) eram feitos directamente em humanos (e.g. o estudo designado Tuskegee Syphilis Experiment, uma investigação clínica realizada entre 1932 e 1972 pelo US Public Health). Agora, tal seria impossível, e.g. os estudos envolvendo substâncias radioactivas, mesmo em experimentação animal e in vitro, estão sujeitos a licenciamento e controlo rigoroso. O uso de radioactividade para fins pacíficos e/ou não pacíficos tem estado sob ‘relativo controlo’, devido à regulação ética e legislação internacional.

É, portanto, indispensável um enquadramento ético da IA com comissões de especialistas a avaliar eticamente projectos e equipas de investigação. A ‘complexidade’ da área impõe que a IA deverá incorporar códigos, algoritmos de responsabilidade ética, verificáveis por outros, que não só os próprios inventores. É dever da Academia e dos restantes cidadãos conscientemente informados encaminharem para o poder político as preocupações actualmente existentes. Tal certamente dará lugar a leis e entidades reguladoras dos valores éticos a salvaguardar, relativamente à IA.

As “guidelines” europeias salientam que a discussão sobre a IA, em grande parte, até agora, auto-organizada pela indústria, deveria ser matéria de análise e discussão pelas universidades e sociedade civil, pois estamos numa rápida transição histórica, a ocorrer em muitos níveis em simultâneo. “A janela de oportunidade, para controlar, pelo menos em parte, o futuro da IA, e defender eficazmente os fundamentos filosóficos e éticos da cultura europeia, fechará dentro de alguns anos. Devemos agir agora.”

Sugerir correcção
Ler 1 comentários