'Um erro é assumir que a meta na tecnologia é automatizar tudo', diz Susan Etlinger

Considerada uma das mulheres mais inovadoras em ética na inteligência artificial (IA), ela conversou com o CORREIO sobre dados e algoritmos

  • Foto do(a) author(a) Thais Borges
  • Thais Borges

Publicado em 29 de novembro de 2020 às 11:00

- Atualizado há um ano

. Crédito: Henny Granfukel/Divulgação

O que podemos fazer com todos esses megadados? Com essa pergunta, Susan Etlinger abriu sua palestra TED Talk, em setembro de 2014. Analista do grupo Atimeter que desenvolve um trabalho com foco em dados e inteligência artificial (IA), ela explicava os motivos pelos quais, à medida que recebíamos mais dados, precisávamos desenvolver nosso pensamento crítico. 

Hoje, seis anos depois, com mais de 1,3 milhão de pessoas tendo assistido ao vídeo da palestra - que foi traduzido para 25 idiomas - e em meio à pandemia da covid-19, ela acredita que as pessoas continuam sem ter uma boa noção sobre dados - nem sobre números."E algumas dessas questões fazem parte da natureza humana; não somos bons com abstrações. Nós somos bons com experiências pessoais. Assim, quando se trata de pensar criticamente, nós tendemos a seguir nossas próprias inclinações", disse, em entrevista ao CORREIO por videoconferência, na última semana. Considerada uma das 100 Mulheres Mais Brilhantes em Ética em IA pela Lighthouse3, Susan é uma das palestrantes do Fórum Agenda Bahia 2020, no próximo dia 9 de dezembro. Da Califórnia, nos Estados Unidos, ela falou ao jornal sobre inteligência artificial, algoritmos preconceituosos e sobre tecnologia. 

O Fórum Agenda Bahia 2020 é uma realização do CORREIO, com patrocínio do Hapvida, parceria do Sebrae, apoio da Braskem, Claro, Sistema Fieb, Sindimiba, Battre e Consulado Geral dos Estados Unidos no Rio de Janeiro e apoio institucional da Rede Bahia e GFM 90,1.

Confira os principais trechos da entrevista.  

Como você definiria a inteligência artificial (IA) para pessoas que nunca ouviram falar disso antes? E de que maneiras a IA já está presente em nossas vidas? 

Inteligência artificial é um nome engraçado, porque se você tem um grupo de 50 especialistas em IA numa sala e pede para que eles escrevam em um papel a definição de inteligência artificial, você provavelmente vai ter 50 definições diferentes. Algumas pessoas vão apontar os aspectos técnicos, algumas pessoas vão falar dos aspectos sociais e vão dizer, ‘ah, isso é IA, aquilo não é IA’. Existem muitos equívocos, muita confusão sobre isso e a definição continua mudando. 

Mas basicamente existem duas coisas que distinguem a inteligência artificial de outras tecnologias. Isso é algo que está sendo colocado por pesquisadores da Universidade de Oxford (Inglaterra). A primeira coisa é que (a IA) pode tomar decisões de forma autônoma. Não precisa que alguém diga a ela o que fazer. E a segunda coisa é que pode aprender a partir dos dados. 

Dito isso, uma coisa que as pessoas falam sobre IA também é que, uma vez que ela vem se tornado mais sofisticada, o que nós pensamos sobre a inteligência artificial muda. Algumas pessoas vão dizer que IA é alguma coisa que pareça mágica. Se você conseguir lembrar da primeira vez que falou com seu celular e esperou que ele fizesse algo para você, provavelmente isso soou como mágica. A primeira vez que você viu um aplicativo que consegue entender onde o seu rosto está (numa imagem) e te dá filtros diferentes, como Snapchat e Instagram, deve ter parecido mágica. Ainda parece algo mágico, às vezes. Todos nós já interagimos provavelmente, com a IA. Se você tem um celular, está interagindo com a inteligência artificial hoje, não importa o que quer que você tenha feito. Se você faz uma busca no Google ou em algum outro lugar, se você tira uma foto, se você fala com o seu celular para dizer o que ele deve fazer, se você abre o Facebook ou qualquer outra rede social… Ele descobre o que você quer ver, baseado no seu comportamento anterior. Se você compra algo online, todas essas coisas são aspectos diferentes de IA, porque todas elas dependem de tecnologias que tentam entender o comportamento humano, tomar decisões baseadas nele, descobrir o que você quer e, então, agir. Isso pode ser tão simples quanto uma busca no Google ou pode ser tão complicado quanto o reconhecimento facial. 

E como uma empresa pode começar a implementar inteligência artificial em seus processos? Que tipo de estratégias elas podem usar para aproveitar o potencial da IA? 

Uma das concepções erradas sobre a IA é que muitos de nós tiramos nossas ideias sobre o que é isso de filmes ou da televisão. Seja Blade Runner, o Exterminador do Futuro ou Black Mirror, ou qualquer programa onde robôs tomam conta da Terra, nós todos temos alguma noção do que é IA. Mas quando pensamos a partir da perspectiva de uma empresa, e lembramos de robôs ou carros automáticos, parece algo muito distante. 

Contudo, muitos dos experimentos ou projetos envolvendo inteligência artificial que empresas fazem é tentar descobrir coisas que estão no radar das pessoas, o que requer muitos dados e computação. E não vale a pena ter uma pessoa para fazer isso. 

Então, pensando nos anos 1950, tem um filme chamado Estrelas Além do Tempo que mostra as mulheres responsáveis pela matemática que ajudou as primeiras pessoas a irem à Lua. Elas eram chamadas de ‘computadores’, porque faziam os cálculos para chegar às descobertas. Só que, no fim das coisas, faz sentido contratar muitas pessoas para fazer isso? Não. Eu não diria que computadores são melhores, mas eles são mais rápidos e podem processar mais dados. Quando você pensa em toda a quantidade de dados que existe no mundo, ter uma máquina automatizando isso é muito mais rápido. 

Assim, a primeira coisa que empresas tendem a fazer é tentar encontrar lugares onde seriam mais eficientes, rápidas, mais baratas, para automatizar processos. De forma geral, nós automatizamos processos que são altamente manuais e ineficientes. E quando eles fazem isso, até a tradução pode ser algo automatizado. Qualquer pessoa já usou o Google Tradutor. Às vezes, é muito impressionante e está se tornando melhor, mas às vezes é estranho porque ele não entende o contexto, diferenças regionais e como as pessoas usam as palavras. Ou seja, começa com a automação e, com o tempo, se torna mais sofisticado. 

Queria que você falasse um pouco sobre como começou nessa área. Como você se envolveu com a IA e que conselhos você daria a alguém que está cogitando seguir a carreira no campo?

Existe um ditado clássico nos Estados Unidos que é “faço o que eu digo, não faça o que eu faço”. Então, eu não usaria minha carreira como exemplo. O primeiro motivo é que eu sou mais velha e estou trabalhando há algum tempo. Quando eu comecei a trabalhar, foi antes da internet. Então, para alguém que é mais novo hoje e está pensando em uma carreira em IA, você está entrando em um mundo totalmente diferente. 

Mas tem uma coisa que ainda é similar e é muito importante: eu não sou uma matemática, não sou uma engenheira, e aqui entre eu, você e o resto do Brasil, sou péssima com números. Sou muito melhor com linguagens, conceitos, teorias, coisas assim. E uma das lacunas entre tecnologia e as empresas, às vezes, são as pessoas que entendem os impactos humanos na forma como usamos a tecnologia. 

Para as pessoas que são matemáticas, cientistas de dados, ou boas com estatísticas, com certeza, sigam esse caminho, sigam esse sonho. Mas eu acho que também vale entender o impacto nas pessoas, entender o contexto em que a tecnologia é usada. Porém, para as pessoas que estudam Literatura, Linguagens, Artes, também existe oportunidade na tecnologia, porque é algo muito importante contribuir com a forma como pensamos no uso da tecnologia, como ela pode afetar as pessoas e como podemos imaginar jeitos diferentes de usá-la. Não é só sobre quem consegue fazer os cálculos mais rápido. 

Como você vê os desafios éticos no campo da inteligência artificial? 

Uma coisa que eu deveria ter dito desde o começo é que é ética é uma palavra desafiadora. Primeiro porque não ficamos no dia a dia falando sobre ética. Quando eu comecei a fazer esse trabalho e a estudar o impacto nos humanos da IA e dos dados, parecia que era como ir a uma festa - se nós conseguirmos lembrar da época em que íamos a festas (risos). 

Tipo, alguém perguntava: “o que você faz?” e eu dizia: “eu procuro a ética no impacto da inteligência artificial’, e a pessoa já se afastava de mim. Parecia tão entediante e horrível. Agora, as pessoas estão realmente interessadas. E acho que elas estão interessadas porque elas começaram a ver alguns dos modos que a IA pode ser usada e usada de forma errada. 

Mas vamos falar sobre o que ética realmente significa. É um conjunto de normas, de práticas aceitáveis. No mundo concreto, nós temos regras. Nós não empurramos alguém na rua. Você não fica parado na frente de um elevador. Todas são as coisas que nós aprendemos quando crianças sobre como nos comportar, mas então nós chegamos aos espaços virtuais, digitais. E não necessariamente nós entendemos as implicações das coisas que acontecem no mundo digital. Então, a ética na IA para o uso responsável da inteligência artificial ou para o uso de qualquer outra tecnologia. É realmente sobre definir um conjunto de normas e padrões para como devemos nos comportar. Agora, dentro dessas normas, existem aspectos específicos para a inteligência artificial. Uma é saber que uma das pedras fundamentais de qualquer tipo de algoritmo é que ele absorve preconceitos. Se o dado tem preconceito, tem uma tendência, o algoritmo vai absorver esse preconceito. E ele não sabe se é bom ou ruim, se é certo ou errado, o que é culpa de alguém, o que faz as pessoas felizes. Ele não sabe nenhuma dessas coisas, ele apenas sabe o que é. Eu venho assistindo The Crown (série da Netflix), recentemente, e tem uma foto de Margaret Thatcher, quando ela se tornou a primeira-ministra da Inglaterra (1979-1990). Ela está sentada no meio de um grupo de ministros do governo britânico e ela é a única mulher em um grupo de talvez 50, 60 pessoas. Se você treinar um algoritmo para procurar pelo próximo primeiro-ministro baseado em quem está naquela foto, ele vai dizer que tem tipo, sei lá, 2% de chance de ser uma mulher. Então, tem 98% de chance de ser um homem. Assim, vamos sugerir um homem. Por isso, preconceito nos dados é uma questão muito importante. 

Coisas como o código postal dos EUA são os grandes indicadores de raça, de saúde. Assim, onde você está e as previsões que você faz podem ter impacto em ajudar os ricos a se tornarem mais ricos e os pobres a ficarem mais pobres simplesmente pelo fato de que você usou dados que têm expectativas por trás deles. Às vezes é fácil ver o preconceito, mas às vezes não é. 

A outra coisa é sobre é sobre explicação. Se eu estou diante de uma sala de aula e digo: “aqui tem uma fórmula, me digam a resposta”, qualquer pessoa que já tomou aula de Matemática em qualquer momento da vida sabe que o professor diria algo como “me mostre seu cálculo, me mostre como você chegou a essa conclusão”. Ou, se você está numa reunião ou numa situação social e alguém pergunta por que você acredita em algo, você diz. Algoritmos não fazem isso. Você tem a entrada e a saída. O que está no meio, algumas pessoas chamam de caixa preta, porque você não sabe de verdade o que aconteceu. 

Existem muitas pessoas que estão trabalhando com essa parte da explicação e o que eles chamam de interpretabilidade, para tentar descobrir como podemos tornar a forma como os algoritmos chegaram a uma definição. Como exemplo, estou procurando por um criminoso e eu quero perguntar: “quem é mais provável de ser um criminoso?”. Se você mora em um lugar onde pessoas de minorias étnicas estão desproporcionalmente na prisão, ele vai me dizer que uma pessoa de minoria étnica é mais provável de ser uma criminosa. Por isso a interpretabilidade é muito importante: é por causa de algo que a pessoa fez? Ou é apenas por causa da cor da pele dela? Porque a IA não sabe a diferença. Ela apenas sabe que isso é um fator para determinar algo.

Como é possível evitar esse preconceito? 

As pessoas que são mais prováveis de ser vítimas desse preconceito são aquelas que têm menos chances de estar na sala quando as grandes decisões são tomadas acerca dos sistemas tecnológicos. Por exemplo, se você é uma pessoa de minoria étnica, uma pessoa vulnerável economicamente, uma mulher, se você tem alguma deficiência… Todas as populações mais vulneráveis são muito menos prováveis de ser CEO, executivo sênior. Elas não estão na sala quando essas decisões são tomadas, então é realmente importante ter essa diversidade na forma como criamos sistemas tecnológicos. 

E a outra coisa é as pessoas que sabem mais sobre isso são aquelas que já sentiram esse preconceito. Não é uma surpresa para você que é negro, para você que é uma mulher, que existe preconceito na sociedade. Não vai ser uma surpresa se você não conseguir o empréstimo que precisa ou se alguém te trata de uma forma que é inaceitável. As pessoas que são especialistas nessa área tendem a ser as pessoas de minorias étnicas, assim como as mulheres. Então, uma coisa muito importante sobre como lidar com preconceito é falar com as pessoas que são as verdadeiras especialistas. Eu não sou essa especialista. Sou alguém que estudou muito, converso com muitas pessoas que se importam com isso, mas uma das mulheres que mais sabe sobre isso é uma que escreveu um livro sobre preconceito em buscas chamado Algorithms of Oppression (Algoritmos da Opressão, em tradução literal), que é Safyia Noble. 

Tem uma mulher chamada Ruha Benjamin que escreveu Race of Tecnology (Raça da tecnologia) e duas mulheres negras responsáveis pelo The Gender Shades Project. Não me considero uma especialista, mas uma observadora interessada. Os verdadeiros especialistas são aqueles que não apenas entendem o impacto a partir de um ponto de vista pessoal comok também vem trabalhando com isso há muito tempo. 

Na sua palestra TED Talk sobre big data, você disse que nós não somos consumidores passivos de dados e da tecnologia. Mas você poderia falar um pouco sobre onde estamos nesse contexto? Se não somos consumidores passivos, o que somos? 

Aquilo foi no final de 2014. Muita coisa aconteceu desde então. Nós ainda não tínhamos vivido a eleição de 2016 nos Estados Unidos, o Brexit não tinha acontecido. Muitas coisas dos últimos cinco ou seis anos não estavam na minha cabeça porque não tinha como ver o futuro. 

Mas o que eu estava preocupada é que havia um incentivo para fazer as pessoas passarem mais e mais tempo online, mas não havia exatamente um filtro em termos do que é informação, o que é desinformação, o que é informação intencionalmente errada. O que eu estava questionando às pessoas é que nós temos que ser pensadores críticos. Nós temos que não apenas acreditar em tudo que lemos, temos que ser um pouco céticos. E não é algo como ser paranoico e não acreditar em nada, porque, francamente, estamos vendo esse efeito nos Estados Unidos hoje. Estamos vendo o efeito de pessoas que não acreditam na imprensa. Eu estava muito preocupada que algo assim acontecesse e era disso que eu falava no TED Talk. Minha preocupação é quanto mais nós automatizamos e quanto menos nós pensamos enquanto fazemos isso, mais preocupante o mundo se torna. Isso foi em 2014. Agora, em 2020, como você acha que a pandemia pode ter mudado a relação entre pessoas e dados? 

Aqui nos Estados Unidos, cerca de 250 mil pessoas morreram (de covid-19). Quando você pensa nesse número de pessoas, e pensa em todas as vidas, todas as famílias, todas as pessoas que amavam essas pessoas, é de quebrar o coração. Por outro lado, nós, seres humanos, não temos uma boa concepção de dados. Nós talvez tenhamos uma pessoa que conhecemos que ficou doente, uma pessoa que conhecemos perdeu a vida. Mas não temos uma boa concepção de números. E algumas dessas questões fazem parte da natureza humana; não somos bons com abstrações. Nós somos bons com experiências pessoais. 

Assim, quando se trata de pensar criticamente, nós tendemos a seguir nossas próprias inclinações. Nós temos esses viéses cognitivos que têm sido bem documentados. Tem um chamado viés de recência, que significa que a última coisa que eu ouvi é a que eu acredito mais. Você pode me dizer não, e depois alguém pode me dizer sim.

Mas se você me disse “não” primeiro e a outra pessoa me disse “sim”, em segundo, é mais provável que eu acredite no sim. Existe ainda o viés de confirmação, que são coisas que confirmam minha própria visão de mundo. É muito mais provável que eu acredite em algo que confirme minhas próprias crenças do que algo que não. Todos esses aspectos sobre seres humanos e a forma como nós funcionamos, a forma como nossos cérebros são conectados, tornam difícil pensar sobre essas coisas. Eles tornam difícil ver a pandemia em termos humanos. E a outra coisa que eu penso é que é realmente desafiador na pandemia é que, dependendo de onde você obtém informações, se você está numa vizinhança ou numa comunidade onde muitas pessoas têm estado doentes, você tem uma experiência muito diferente de alguém que vive em um lugar onde apenas o primo de alguém talvez tenha ficado doente. Seu quadro de referência é diferente. Então, parte da resposta para isso é empatia, uma combinação entre ceticismo e pensamento crítico. É o final de 2020, todos nós tivemos um ano terrível, não importa onde estejamos, mas eu diria que as pessoas estão cansadas e não necessariamente são capazes de entender todas as informações que têm surgido ao longo do ano. 

Minha esperança para a pandemia é que as pessoas acreditem na ciência, que as pessoas acreditem em um conjunto de diferentes sinais, não apenas no que eles viveram. Minha esperança para a pandemia é que nosso sistema educacional ajude a reforçar essas formas de pensar (criticamente), de forma que possamos proteger a nós mesmos. 

A cidade de Salvador tem tentado, nos últimos anos, se tornar mais inovadora. Tanto Salvador quanto a Bahia e o Brasil são famosos pela criatividade ao mesmo tempo que enfrentam altos índices de desemprego. Como podemos usar os dados na cidade, no estado e no país de uma forma a enfrentar o problema e aproveitar o potencial?

Eu acredito na tecnologia por ter visto a tecnologia fazer coisas maravilhosas. Tecnologia ajudou a curar o câncer, a construir aviões, a fazer todo tipo de coisa surpreendente. E se pensarmos na época da industrialização, sempre teve um impacto no emprego. Se voltarmos um pouco no passado, talvez 600 anos, quando a Bíblia de Gutemberg foi impressa pela primeira vez, no final do século 15, havia um monge beneditino que estava preocupado. Esse foi o tempo que impressora foi criada e seria usada para imprimir Bíblias. 

Ele estava preocupado que isso faria com que os monges ficassem sem trabalho, já que não se precisaria mais de manuscritos, e que os manuscritos não seriam tão bonitos e de qualidade quanto eram com pessoas. Em alguns aspectos, ele estava certo. Mas, em outros, a habilidade de imprimir a Bíblia tinha implicações históricas e a possibilidade de as pessoas consumirem conhecimento era uma delas. Foi, de certa forma, o começo do mundo em que vivemos hoje. Agora,em termos de Salvador e desemprego, eu não posso te dizer o que eu acho porque não tenho nenhuma experiência pessoal. 

Mas tive uma experiência com alguém que é um economista e acho que um dos grandes erros que as pessoas e as empresas cometem é assumir que a meta na tecnologia é automatizar tudo. E que quando você automatiza tudo, as coisas vão ser todas mais eficientes. Se esse último ano nos ensinou alguma coisa, é que seres humanos são adaptáveis, resilientes, engenhosos. Nós podemos fazer coisas e pensar de maneiras que máquinas não podem e talvez nunca sejam capazes de pensar. Assim, o que ele estava propondo e eu concordo é algo chamado complementaridade. A ideia é que o melhor resultado é quando você coloca a pessoa e a máquina juntas e descobre coisas em que a máquina é muito boa, que a pessoa é muito boa. É aí que você consegue a inovação real.

Sim, teremos empregos que serão perdidos, e do ponto de vista de um humano, da pessoa que perdeu o emprego, é de quebrar o coração. É terrível. Mas a partir de uma perspectiva mais vívida, vão existir formas de trazer pessoas com as máquinas. Não me refiro a tornar pessoas em máquinas. O que quero dizer é: o lugar está no processo, quando você precisa de uma pessoa para fazer o julgamento. E isso é o que penso que devemos seguir, é o oposto dessa ideia de que tudo deve se tornar automatizado. 

Eu quero dizer porque não sou uma economista ou remotamente familiar com a situação aí, mas uma de minhas esperanças com essa pandemia é que podemos usá-la como uma oportunidade de lembrar a nós mesmos como a empatia é importante, assim como a conexão entre as pessoas.