“A inteligência artificial precisa de controlo humano”

A relatora do documento de referência sobre a inteligência artificial do Comité Económico e Social da União Europeia, Catelijne Muller, defende mais discussão sobre as consequências desta nova realidade, que diz não serem uma fatalidade.

Foto
"Tributar o trabalho feito por robôs parece-me difícil", diz Catelijne Muller DR

Catelijne Muller é membro do Comité Económico e Social da União Europeia (UE), órgão consultivo que representa as organizações de trabalhadores e empregadores, com membros de toda a União. A holandesa foi também a redactora sobre inteligência artificial do CES, para além de ser presença habitual nos fóruns de discussão sobre temas de tecnologia. Enquanto não são publicadas as reflexões da Comissão sobre o tema, Muller é das vozes mais autorizadas da UE sobre as implicações que a inteligência artificial terá no continente europeu. As suas intervenções vão em dois sentidos: apelar ao diálogo continuado em toda a sociedade e defender um “controlo humano” sobre a inteligência artificial.  

O relatório da sua autoria começa por afirmar que é necessário um grande debate público sobre a inteligência artificial (IA). Como antevê que isso possa acontecer?
Estou a tentar contribuir para isso. Acho que chegou o tempo de a sociedade como um todo, incluindo os decisores políticos e os parceiros sociais, as empresas que desenvolvem a IA e as que a usam no seu trabalho, bem como os meios académicos, se sentarem à mesa e falarem uns com os outros. O que vemos agora é que a discussão se centra na divisão entre os que acham que a inteligência artificial vai dominar o mundo e devemos estar todos muito preocupados e, por outro lado, aqueles que dizem que isso nunca vai acontecer. E eu quero que se encontre um equilíbrio, que nos expliquem exactamente o que a IA consegue e não consegue fazer e como a podemos controlar, e que ensinemos e aprendamos uns com os outros, porque o impacto já é imenso. E eu quero liderar o esforço para que haja esse tipo de diálogo.

Pensa que tal será possível? Não temos visto os políticos darem muita atenção a esta questão.
Bem, a Comissão Europeia irá adoptar uma estratégia relativamente à inteligência artificial, estou muito curiosa quanto a isso. Irei falar com os dois comissários responsáveis por essa estratégia, temos de esperar para ver o que sairá daí. O meu papel permite-me estar em contacto e dar voz à sociedade civil, desde as empresas aos sindicatos e às organizações de consumidores e ONG [organizações não governamentais], e a minha intenção é que todos estes actores contribuam para esta discussão. Se a Comissão Europeia quiser colaborar, tanto melhor.

Uma das medidas que defende é a redacção de um código de ética pan-europeu.
Ou até mundial.

E crê que a União Europeia pode fazer isso acontecer?
Não tenho a certeza se pode forçar que isso aconteça, mas pode certamente ajudar a acelerar as boas iniciativas. Dois exemplos: a do IEEE [Instituto de Engenheiros Electricistas e Electrónicos], uma organização que propôs uma muito boa orientação ética no campo da IA; e os Princípios de Asilomar [23 princípios éticos saídos da Conferência de Asilomar, que ocorreu em Janeiro de 2017]. Há um número de iniciativas que são realmente boas, mas que agora precisam de chegar aos corações e às mentes de quem toma decisões. A União Europeia tem a capacidade para acelerar e apoiar esse processo, mas o que precisamos é que quem desenvolve a IA pense da mesma maneira.

E a principal ideia que propõe é um conceito de “controlo humano” sobre a IA, correcto?
Sim, esse é um termo que eu tenho tentado trazer para a discussão, e que está relacionado não só com a forma de manter o controlo sobre os aspectos técnicos, mas também com a nossa decisão sobre se, quando e como vamos usar esta tecnologia nas nossas vidas quotidianas. Se é boa o suficiente, se tem qualidade, se é segura e transparente, se respeita a nossa privacidade. Nós podemos decidir que a IA precisa de controlo humano, ela não tem de ser algo que nos ultrapasse. Vamos usá-la no nosso trabalho? Patrões e funcionários podem e devem reunir-se e perguntarem-se: “Como é que isto pode ajudar a que eu me torne melhor no meu trabalho?” É a isso que eu chamo “controlo humano”.

Uma das coisas a que temos vindo a assistir na maior parte dos casos é que a tecnologia se desenvolve mais depressa do que a regulação. Não vê nisso um problema?
Esse é um risco, sem dúvida. Um dos maiores problemas é que o conhecimento e o volume de informação necessários para desenvolver a IA estão, em grande parte, nas mãos de apenas cinco, seis grandes empresas de tecnologia, as mesmas empresas que a comissária para a Concorrência, Margrethe Vestager, está agora a tentar pressionar a fazerem mais e melhor. Acho que estamos atrasados, mas ainda a tempo de começar a discutir tudo isso. Stephen Hawking abriu a Web Summit com um aviso sobre a IA e tenho visto muitos painéis e debates sobre os desafios que esta tecnologia inovadora e disruptiva apresenta. Mesmo dentro da comunidade tecnológica, nota-se a preocupação de questionar se ainda estamos no caminho certo. Por isso, estou optimista.

A primeira área da sociedade a sentir os efeitos mais imediatos da IA será provavelmente o mercado laboral.
É verdade que a IA vai ter um impacto no mercado de trabalho, mas simplesmente não sabemos em que escala. Há muitas previsões diferentes entre si. A OCDE prevê que 9% dos empregos possam estar em risco, enquanto o estudo de Frey e Osborne refere 47%, número que entretanto foi revisto em baixa. Há até quem ache que nos encaminhamos para uma sociedade sem empregos. Olhando para a discrepância dos números, a minha resposta é que não sabemos. Portanto, porque estamos a saltar para a discussão sobre o rendimento mínimo universal e afins, quando ainda há tanto que podemos fazer para moldarmos a sociedade e o mercado laboral aos novos desafios?

Mas não lhe parece óbvio que a disrupção social será grande, tendo em conta que o custo económico da utilização de IA é muito mais baixo do que a força de trabalho humana?
Sim, infelizmente temos de admitir que esse é quase sempre o cenário. Mas há também bons exemplos, como uma construtora automóvel, creio que a Toyota, que tinha começado a substituir trabalhadores por máquinas e que agora está a reverter o processo, porque chegaram à conclusão de que lhes fazia falta o engenho e a criatividade humana. Podemos estar a assistir a uma “onda” que depois volta para trás.

Mas há muitos empregos que não requerem qualquer criatividade. Esses estão definitivamente em risco.
Sim, é verdade, e temos absolutamente de proteger as pessoas que possam ver o seu emprego completamente extinto. Temos de adoptar medidas de transição para essas pessoas, nomeadamente a nível da educação e da formação, para que possam passar de um trabalho para outro. Também por essa razão é tão necessário esse debate alargado. Por exemplo, os carros autónomos podem ser uma realidade daqui a um ano, e há muitas pessoas que guiam para ganhar a vida e que podem ter o seu emprego em risco. Essas pessoas têm de ser ajudadas, sem dúvida, mas há também muitos trabalhos em que, parcialmente, a IA pode ser eficaz. A discussão sobre a optimização da cooperação entre humanos e máquinas é essencial.

Como se posiciona na questão da possível tributação dos robôs e da eventual solução do rendimento básico?
Pode valer a pena investigar esse tipo de soluções, mas só se tivermos a certeza de que queremos mesmo ir nessa direcção, porque pode também tornar-se uma profecia auto-realizável. Tributar o trabalho feito por robôs parece-me difícil, e sabemos que as empresas iriam argumentar que isso acabaria com a inovação, mas também podemos pensar em estruturas em que, por exemplo, os dividendos desse trabalho seriam repartidos entre a empresa e o trabalhador.

Ou aumentar os impostos das empresas que têm mais lucros empregando menos trabalhadores, por exemplo.
Ou isso, também é uma boa ideia. Devia ter-me lembrado disso! O Comité Económico e Social Europeu não tem uma posição oficial sobre o assunto, mas a nossa visão é a de que são necessários estudos mais aprofundados sobre essas soluções.

Tem-se manifestado sempre contra a atribuição de um “estatuto legal” à IA. Pode explicar?
Acho que não devemos ir por aí. Quando pergunto às pessoas a razão de defenderem essa possibilidade, a resposta anda à volta de quem responsabilizar se as coisas fugirem ao nosso controlo. A minha visão é a seguinte: quando um cão morde uma criança, não responsabilizamos o cão, responsabilizamos o dono. Quando uma criança parte um vidro a brincar com uma bola, não responsabilizamos a criança, responsabilizamos os pais. Nestas situações o dono e os pais não têm controlo sobre o que acontece, mas ainda assim responsabilizamo-los. As nossas leis que determinam a responsabilidade existem há séculos, foram corrigidas e melhoradas ao longo dos tempos exactamente para lidar com estas possibilidades. Isto não é nada de novo. E a segunda razão pela qual me oponho prende-se com algo ainda mais perigoso: as leis que determinam a responsabilidade têm uma outra função, que é a de evitar que façamos mal, evitar que o construtor automóvel faça um carro sem travões. É uma função correctiva e preventiva. Se retirarmos essa ameaça preventiva da equação, o que impede alguém de desenvolver um sistema de inteligência artificial que entretanto deixe de controlar e depois recuse responsabilidades pelo que ele fizer?

Há também um problema de geopolítica na IA. Como referiu, há muitas empresas americanas a trabalhar no sector, bem como algumas chinesas. Não existe na Europa uma grande empresa que esteja na vanguarda da IA. Isso não faz com que a Europa seja obrigada a recorrer a serviços externos para ter acesso a todo este universo, nomeadamente a potências que podem não partilhar dos valores europeus?
Sim, isso é sem dúvida um problema. Mas, por outro lado, diria que não devemos esquecer que na Europa há 500 milhões de potenciais consumidores. Somos um mercado relevante mesmo para essas empresas americanas e chineses. E se a Europa disser que os nossos padrões de qualidade têm de ser respeitados, essas empresas não têm outra hipótese senão cumprir esses requisitos para terem acesso ao nosso mercado.

A questão geopolítica prende--se também com o acesso à informação e o uso que pode ser dado a essa informação.
Sim, é verdade. Nesse campo as minha esperanças depositam-se em Margrethe Vestager, que tem vindo a analisar o volume de informação detido pelas empresas, para decidirmos se já é demasiado grande.

No que toca à IA, isso é muito difícil de regular, pela dificuldade em separar a informação necessária para desenvolver “boa IA” do resto da informação que, não tendo relevância para a tecnologia, tem importantes conotações geopolíticas. Voltando ao início da conversa e a esse possível código de ética global com valores europeus, crê que temos poder para impor tal coisa, se não temos dentro de portas a capacidade de desenvolver estas tecnologias, pelo menos de forma a podermos competir com as grandes potências?
Não sei se será assim tão difícil fazê-lo. A Europa teve desde sempre, do nosso ponto de vista, padrões mais elevados e um maior respeito pelos direitos humanos do que outras partes do mundo. E, quanto a esta questão, vejo que mesmo da parte das empresas americanas há uma preocupação muito séria com a maneira como a IA vai afectar as nossas vidas, por isso estou em crer que de alguma forma a humanidade vai encontrar maneira de chegar a um consenso sobre isto. Também estou preocupada, mas tenho esperança de que a Europa possa tomar a dianteira neste assunto. Estou preocupada, mas optimista.

Sugerir correcção
Ler 1 comentários