Há cinco anos, Frank Chen fez uma pergunta que me acompanha todos os dias desde então. A questão era esta: “Se os carros autónomos são 51% mais seguros, não somos moralmente obrigados a adotá-los?”. Eu fiz essa pergunta inúmeras vezes nos últimos cinco anos e, geralmente, uma reação instintiva leva a um debate interessante. O que torna esta questão tão importante é o fio da navalha – não é 99% mais seguro, não é 70% mais seguro, é apenas 51% mais seguro.
Para contextualizar. A Administração Nacional de Segurança Rodoviária informou que em 2022, houve uma estimativa de 42.795 mortes no trânsito. 50% de 42.795 são 21.398 pessoas e 51% são 21.825 pessoas.
Isso significa que se os carros autônomos fossem 51% mais seguros, usá-los salvaria a vida de 427 pessoas todos os anos. São cerca de 1,5 aviões Boeing 777 cheios de passageiros.
Salvar 427 vidas é um argumento moral para adoção?
Nos cinco anos em que compartilho esta questão, as respostas nunca são simples. Eles estão sempre cheios de “e se”. Mas mesmo que as respostas faltem clareza, acho que a questão é extremamente importante. Em parte porque abre um debate mais amplo – e igualmente importante – sobre o imperativo moral da adoção da IA em muitos aspectos das nossas vidas e trabalho. Porque, afinal, evitar tecnologias que poderiam salvar vidas pode ser tão eticamente problemático como adotar tecnologia demasiado precipitadamente,
Sempre considerei o debate em torno dos veículos autónomos um microcosmo perfeito para o discurso mais amplo sobre IA. Se possuímos uma tecnologia estatisticamente mais segura do que os veículos operados por humanos, a escolha moral não é óbvia?
Considere isto:
E lembre-se, esses números não são apenas estatísticas. Eles representam vidas reais que poderiam ser salvas com a adoção da tecnologia de IA.
Mas por que parar nos veículos autônomos? O potencial da IA para melhorar a segurança, a eficiência e a precisão abrange campos como medicina, saúde pública, segurança alimentar, agricultura, segurança cibernética, prevenção do crime e ciência militar. Se a IA consegue diagnosticar doenças com maior precisão do que os médicos humanos, prever quebras de colheitas antes que devastem os abastecimentos alimentares ou impedir ataques cibernéticos antes que violem os nossos dados, não temos a obrigação moral de também utilizar essas tecnologias?
É claro que estes são exemplos dramáticos, mas o argumento vai além dos cenários de vida ou morte. A capacidade da IA de melhorar a nossa qualidade de vida diária é igualmente convincente. Seja simplificando tarefas mundanas ou tornando a informação e os serviços mais acessíveis e equitativos, a IA pode acabar com o trabalho penoso e melhorar a nossa qualidade de vida diária. O imperativo moral de adotar a IA não envolve apenas prevenir danos ou morte; trata-se de saber se temos a obrigação de contribuir para o bem-estar humano, se pudermos.
Então, escolhemos veículos operados por humanos (ou processos liderados por humanos) sabendo que são menos seguros ou eficientes do que os seus homólogos de IA? Simplesmente porque são mais humanos?
Confrontado com a escolha entre sistemas operados por humanos e alternativas melhoradas pela IA, penso que a decisão deveria obviamente depender da segurança e da eficiência, em vez de uma fidelidade a alguma ideia obscura do que é “humano” ou não.
Abraçar a IA não significa desconsiderar o valor ou a contribuição humana; em vez disso, trata-se de reconhecer que o que é humano não é inerentemente superior – e honestamente, é muitas vezes significativamente inferior em contextos específicos.
Agora, por favor, não peguem os forcados, não vou me juntar ao Team Robot Overlord. Sinto a ansiedade que muitas pessoas sentem em relação à perturbação que a IA já está a causar aos seus empregos e à mudança social que, sem dúvida, está a caminho. Apenas me pergunto se a eficiência da IA e os benefícios da qualidade de vida poderão, a longo prazo, compensar o impacto dessas perturbações.
Parte da nossa relutância em adotar a IA é informada por preconceitos e medos cognitivos. Para uma espécie famosa pela sua adaptabilidade, nós, humanos, não gostamos de mudanças.
Os preconceitos cognitivos desempenham um papel substancial na nossa hesitação em adotar a IA. Os preconceitos cognitivos são padrões psicológicos que permanecem desde nossos primeiros anos como Homo Sapiens. São os hábitos nos quais nossas mentes adotam – atalhos cognitivos que podem ser úteis ao fugir de predadores, mas que definitivamente distorcem nossa percepção e julgamento modernos.
Neste caso, reconhecer e abordar estes preconceitos é crucial para avançar em direção a uma abordagem mais racional e ética à adoção da IA. Aqui estão alguns que penso que podem estar em jogo, influenciando a nossa suspeita, confiança ou aceitação das tecnologias de IA.
Interessante, certo? Mas a verdade é que tudo isso é acadêmico. Talvez nem consigamos tomar essa decisão no final. As empresas já estão conseguindo.
Muitas empresas estão avançando com a integração da IA – principalmente porque o ROI muitas vezes fala mais alto do que os debates éticos. Pegar
Ainda assim, não se trata apenas de um capitalismo implacável; trata-se de sobrevivência e adaptação. As empresas enfrentam diariamente o desafio de equilibrar a adoção tecnológica com responsabilidades éticas e ESG. O impacto da IA no emprego e no bem-estar humano não pode ser deixado de lado. Para milhares de pessoas, a estabilidade financeira e o bem-estar profissional dependem dessas decisões. É algo com que muitas empresas estão lutando.
E é aqui que a questão do imperativo moral se torna mais matizada. Se a IA pode agilizar as operações, reduzir custos e até criar novas oportunidades, então não seremos nós também moralmente responsáveis pela exploração destas tecnologias?
O truque será manter essa bússola ética à mão e garantir que, à medida que abraçamos as eficiências da IA, também nos salvaguardamos contra o seu potencial de perturbar injustamente os meios de subsistência.
De qualquer forma, precisamos estar atentos ao nosso equilíbrio. Estamos à beira de uma nova era e um empurrão sólido poderia levar-nos a uma queda livre. A IA não é mais uma fantasia futurista; está absolutamente incorporado em nossa vida diária e em nosso trabalho. Isso é emocionante – e assustador como o inferno.
Um dos desafios mais significativos que enfrentamos é a acessibilidade ou a lacuna tecnológica. A IA tem potencial para democratizar a tecnologia, disponibilizando ferramentas poderosas para um público mais amplo. No entanto, neste momento, a promessa da IA é vista principalmente por aqueles que já têm um certo nível de acesso, pelo que existe também a possibilidade de a IA exacerbar as desigualdades existentes, em vez de as aliviar.
É um período de ajustamento, pelo que exigirá paciência, educação e medidas proativas para garantir que os benefícios da IA sejam amplamente distribuídos. Temos o potencial de nivelar o campo de jogo para que o potencial da IA possa ser desbloqueado para todos, não apenas para alguns privilegiados.
Ok, então é um paradoxo: para que a IA funcione de forma ideal ao lado dos humanos, ela deve ser superior a nós em determinadas tarefas. Mas essa MESMO superioridade ameaça deslocar os papéis humanos, alimentando a resistência e o medo entre nós, mortais.
Este paradoxo cria um difícil “push-pull” para a IA; é por isso que estamos vendo um debate tão acalorado sobre moralidade. Acredito que a solução pode ser um conjunto de filosofias e tecnologias de design emergentes destinadas a colmatar a lacuna entre a IA e a cooperação humana de uma forma ética. Vou listá-los abaixo. Vale a pena perguntar ao ChatGPT sobre:
Para encerrar, vou me posicionar. Acho que adotar a IA é um imperativo moral. Na minha opinião, o potencial para salvar vidas, melhorar a nossa qualidade de vida e até mesmo resolver desigualdades de longa data é demasiado significativo para ser ignorado. Contudo, isso não significa que devemos mergulhar de cabeça sem consideração. Na minha opinião, precisamos de abordar a IA com uma mistura de entusiasmo e cautela – permanecendo entusiasmados para explorar as suas possibilidades, mas conscientes do impacto ético, social e económico.
Consideração cuidadosa, estruturas éticas robustas e governança rigorosa são as chaves para desbloquear o potencial da IA de forma responsável.
Ainda estou aberto ao debate sobre o assunto. Então, vou lançar a pergunta para você. Responda aqui ou no meu
Estamos prontos para abraçar a IA com a seriedade moral que ela exige?
Você está pronto para fazer sua próxima viagem em um carro autônomo?