Como sua organização tem se preparado para trabalhar com IA?

Como ocorre em diversas organizações, o AppCívico já iniciou a utilização de Inteligência Artificial (IA) em diversas tarefas cotidianas, e é provável que a frequência e amplitude desta utilização se intensifiquem. Queremos compartilhar com vocês como estamos utilizando, bem como promover uma reflexão e apresentar uma lista de recomendações baseadas em nossa experiência.

IA
Thiago Rondon
Consultor em tecnologias cívicas
16.5.2023
OpenAI GPT 4.0: is nodejs, how to protect agian zipbomb. I need to read the .zip content and check if there's 4 files containing the exntesions .shp, .txt, .png and .bin inside the root directory of the uploaded zip file (by Renato Cron).
OpenAI GPT 4.0: is nodejs, how to protect agian zipbomb. I need to read the .zip content and check if there's 4 files containing the exntesions .shp, .txt, .png and .bin inside the root directory of the uploaded zip file (by Renato Cron).

Para promover esta reflexão, gostaria de citar um dos melhores artigos que li recentemente, escrito pela professora Anna Rogers, do Departamento de Ciência da Computação da Universidade de TI de Copenhague, intitulado "O problema de atribuição com IA generativa" (em inglês, "The attribution problem with generative AI").

Rogers discute a questão da atribuição em modelos de IA gerativos, argumentando que, embora possam ser comparados a motores de busca latentes, existem diferenças fundamentais que tornam essa comparação problemática. De maneira lúcida, ela estabelece uma comparação que destaca como, ao contrário dos motores de busca, os modelos gerativos não fornecem uma fonte clara para as ideias, obras de arte ou trechos de código que geram. Isso cria um problema de atribuição, pois não há ilusão de que qualquer pensamento, obra de arte ou código esteja disponível para ser livremente apropriado como trabalho próprio.

A professora e pesquisadora também aborda a questão da criatividade em modelos gerativos e argumenta que, apesar de serem capazes de gerar conteúdo original, eles ainda estão fundamentalmente otimizados para produzir uma conclusão estatisticamente provável com base no prompt. Logo, a menos que a empresa que comercializa o modelo ofereça garantias de originalidade em casos específicos, acaba transferindo a responsabilidade pelo potencial plágio para seus clientes.

Por fim, Rogers debate a questão do "uso justo". Ela argumenta que, apesar de o "uso justo" parecer uma abordagem razoável para pesquisa acadêmica ou para criadores individuais produzindo conteúdo assistido por IA (com a devida atribuição de fonte), não é disso que se trata a discussão. A questão é sobre o direito das empresas de IA de usar qualquer dado que possam obter para treinar modelos comerciais, sem compartilhar os lucros com os criadores originais ou mesmo informá-los de que seu trabalho foi usado.

Como temos utilizado IA no AppCívico?

OpenAI GPT-4: (...) that's not working, this is loading all the parents, but I need to load all the children (by Renato Cron).

Recentemente, o AppCívico tem aplicado o uso de IA em algumas situações, desde de correção de contratos, desenvolvimento de software e testes de segurança.

Nos últimos meses, temos utilizado a IA para aprimorar e validar códigos, especialmente no que tange aspectos de segurança. Quer saber mais sobre este assunto? Fique ligado na nossa newsletter, vamos enviar um artigo com exemplos práticos.

Ademais, desenvolvemos uma política para deixar claro quando e como utilizamos a IA. Você pode ler mais detalhes em nossa política de IA generativa. Nosso objetivo com essa política é fortalecer o uso de IA com base em princípios sólidos. Como todos sabem, todos os dias surgem novas ferramentas de IA e esta tendência não parece diminuir. Se tiver críticas ou sugestões sobre nossa política, compartilhe conosco!

Nossas recomendações

Ao adotar o uso de IA, especialmente IA generativa, sugerimos algumas recomendações a serem consideradas:

  • Política de IA: As organizações devem estabelecer uma política clara de IA, que defina como a tecnologia será utilizada. Essa política deve incluir diretrizes sobre a atribuição, privacidade dos dados, transparência e responsabilidade, sendo facilmente acessível e compreensível para todos os usuários.
  • Transparência: As organizações devem ser transparentes quanto ao uso de IA. Isso inclui revelar quando e como a IA é utilizada, bem como quais dados são coletados e como são empregados para treinar os modelos de IA.
  • Atribuição: As organizações devem garantir que a atribuição adequada seja concedida quando a IA é utilizada para gerar conteúdo. Isso pode incluir a atribuição de fontes de dados utilizadas para treinar o modelo de IA, bem como a atribuição de qualquer conteúdo gerado pela IA que seja baseado no trabalho de outras pessoas.
  • Privacidade dos Dados: As organizações devem garantir que a privacidade dos dados seja protegida. Isso inclui assegurar que os dados pessoais não sejam utilizados sem consentimento e que os dados sejam armazenados e transmitidos de forma segura.
  • Responsabilidade: As organizações devem assumir a responsabilidade pelo uso da IA. Isso inclui assegurar que a IA seja utilizada de maneira ética e responsável, e que qualquer problema ou erro seja corrigido prontamente.
  • Treinamento e Educação: As organizações devem fornecer treinamento e educação adequados para os colaboradores sobre o uso da IA. Isso pode incluir treinamento sobre como utilizar a IA de maneira eficaz e responsável, bem como orientação sobre os possíveis riscos e benefícios da IA.
  • Avaliação Contínua: As organizações devem realizar avaliações contínuas sobre o uso da IA. Isso pode incluir a revisão regular da política de IA, a avaliação do impacto da IA na organização e a coleta de feedback de usuários e outras partes interessadas.

Ao seguir estas recomendações, as organizações podem garantir que a IA seja utilizada de forma responsável e eficaz, minimizando os possíveis riscos associados ao uso dessa tecnologia.

Soluções relacionadas

No items found.

Histórias de sucesso

No items found.