Quando a inteligência artificial é utilizada em julgamentos.

É evidente que a inteligência artificial, inclusive a inteligência artificial generativa, passará por testes judiciais. Os profissionais que trabalham com nuvem e inteligência artificial devem adotar práticas de design e governança defensivas para evitar contratempos.

Em um recente processo judicial contra a Air Canada em um pequeno tribunal de reclamações, a empresa foi derrotada devido ao fato de que seu chatbot com inteligência artificial forneceu informações incorretas sobre tarifas de luto. O chatbot sugeriu erroneamente que o passageiro poderia solicitar retroativamente tarifas de transporte, apesar de a política da companhia aérea contradizer essa informação. Apesar de ter fornecido o link para a política na resposta do chatbot, o tribunal considerou que a empresa não explicou adequadamente por que o passageiro não deveria confiar nas informações fornecidas pelo chatbot.
O incidente destacou a intersecção entre inteligência artificial e responsabilidade legal, demonstrando de forma convincente as possíveis consequências legais e financeiras da desinformação e preconceito na IA.
O início ou a parte mais visível de algo maior ou mais complexo.
Descobri que as pessoas têm uma resistência à inteligência artificial, especialmente quando se trata de respostas que podem ser contestadas. Isso pode variar desde questões simples, como o caso da Air Canada, resolvido em pequenas instâncias judiciais, até situações mais sérias, como viés sistêmico em modelos de IA que resultam na negação de benefícios para determinadas raças.
No processo contra a Air Canada, o tribunal classificou o caso como um exemplo de “representação negligente”, indicando que a companhia aérea não havia se esforçado adequadamente para assegurar a precisão de seu assistente virtual. Essa decisão traz importantes questionamentos sobre a responsabilidade das empresas em relação ao desempenho de sistemas baseados em inteligência artificial, que estão se tornando cada vez mais comuns.
Além disso, a situação ressalta a fragilidade das tecnologias de inteligência artificial diante de imprecisões, muitas vezes provenientes da utilização de dados de treinamento incorretos ou tendenciosos. Essas falhas podem resultar em consequências negativas para os usuários, que costumam identificar tais problemas e comunicá-los à empresa.
O exemplo ressalta a importância de as empresas revisarem até que ponto as habilidades da inteligência artificial podem ser ampliadas e o risco legal e financeiro que a exposição à desinformação pode acarretar, levando a decisões ruins e resultados negativos dos sistemas de IA.
Analise a estrutura do sistema de inteligência artificial que você está observando no tribunal.
Por que razão? Porque é provável que sejas tu.
Eu comunico essa mensagem aos meus alunos porque sinceramente acredito que muitas decisões de design e arquitetura relacionadas à criação e implementação de sistemas de IA generativa poderão ser questionadas no futuro, seja em processos judiciais ou por analistas que buscam identificar possíveis falhas no funcionamento desses sistemas.
Costumo garantir com frequência que estou protegido com informações de monitoramento e análises de log, incluindo a identificação de tendências distorcidas e quaisquer erros de percepção. Contamos também com a presença de um especialista em ética de inteligência artificial na equipe, que faz as perguntas apropriadas e supervisiona os testes para identificar possíveis tendências distorcidas e outros problemas que poderiam resultar em processos legais.
Apenas os sistemas de genai estão sujeitos à escrutínio legal? Não necessariamente. Temos lidado com a responsabilidade do software por muitos anos; isso não muda. O que difere é a transparência. Os sistemas de IA não operam por meio de código; eles funcionam com modelos de conhecimento desenvolvidos a partir de uma grande quantidade de dados. Ao identificar padrões nesses dados, podem produzir respostas semelhantes às humanas e continuar aprendendo.
Essa abordagem possibilita que o sistema de Inteligência Artificial se torne mais criativo, o que é positivo. No entanto, também pode resultar em preconceitos e decisões inadequadas devido à utilização de dados de treinamento de baixa qualidade. É como se o sistema se reprogramasse diariamente, adotando abordagens e respostas diferentes com base nessa reprogramação. Em certas ocasiões, funciona bem e agrega um valor significativo. Contudo, em outras situações, como no caso da Air Canada, pode fornecer respostas incorretas.
Como proteger a sua organização e a si mesmo.
Antes de mais nada, é importante adotar o design defensivo. Registre todas as etapas do processo de design e arquitetura, explicando a razão por trás da escolha das tecnologias e plataformas utilizadas.
Além disso, é recomendável registrar os testes realizados, com auditoria para identificar possíveis tendências e equívocos. Não se trata de questionar se esses problemas serão encontrados; eles sempre estão presentes. O que realmente importa é a habilidade de eliminá-los dos modelos de informação ou linguagem extensos, e documentar essa ação, incluindo a necessidade de refazer testes, se for o caso.
É fundamental avaliar o objetivo do sistema de inteligência artificial, assim como as questões a serem ponderadas e sua evolução futura.
É importante considerar se é apropriado utilizar inteligência artificial em um primeiro momento. Existem diversas dificuldades ao implementar a IA na nuvem ou localmente, como custos adicionais e riscos. Muitas empresas enfrentam problemas ao utilizar a IA em situações inadequadas, quando talvez devessem optar por tecnologias mais tradicionais.
Isso não irá evitar que você vá ao tribunal, mas será útil se isso acontecer.