A IA dentro da empresa
- Assespro-RS Rio Grande do Sul
- há 1 minuto
- 3 min de leitura
Ao longo da história, sempre houve revoluções tecnológicas radicais. Com sorte, um indivíduo poderia testemunhar uma ou duas durante a sua vida. Mas nada se compara à velocidade do surgimento de novas tecnologias e da sua adoção como nas últimas décadas. O telefone fixo, disponível comercialmente a partir de 1877, levou cerca de 75 anos para estar em uso por 10% da população mundial. O rádio, 38 anos. Smartphones? Em 6 anos já estavam nas mãos de 10% do planeta.
Hoje, com poucos anos de uso comercial da Inteligência Artificial, estima-se que 6% da população mundial faz uso direto dessa tecnologia, embarcada em produtos como Alexa ou Siri ou uso direto do ChatGPT, Grok e outros. No uso involuntário, como em recomendações de conteúdo nas redes sociais, isto chega a 60% da população mundial.
E o ciclo de inovações dentro do mundo da inteligência artificial é tão rápido, que é difícil acompanhar. Na mesma semana você lê um artigo sobre a IA acertando mais diagnósticos médicos do que os humanos, e vê vídeos hiper-realistas gerados pela IA da Google. Você fica pensando quando verá a primeira premiação do Oscar para filme totalmente roteirizado, dirigido e atuado pela máquina.
Mas enquanto este dia não chega, existem preocupações mais urgentes dentro das nossas empresas. Sem nenhuma diretriz de utilização, esta mesma empolgação de brinquedo novo pode criar problemas de segurança, privacidade e legais dentro da organização.
Por exemplo, cada serviço tem os seus próprios termos de uso que ditam o que é feito com essas informações submetidas pelos usuários. Em alguns casos, estes dados podem ser usados para retreinar os modelos de IA. Imagine um cenário onde um colaborador carrega uma lista de clientes e volume de vendas para que a IA análise, e esses dados acabam aparecendo em uma futura pergunta feita pelo seu concorrente no mesmo serviço de IA. Além disso, a mera exposição inadvertida de dados sigilosos na internet pode levá-los para dentro dos modelos de IA. Uma pesquisa recente de uma empresa de segurança constatou que 99% das organizações expõem indevidamente dados sensíveis para ferramentas de IA.
Outro ponto é em relação ao excesso de confiança dos resultados gerados pela IA. Sem entendimento de como modelos generativos funcionam, há a falsa percepção de que os resultados são infalíveis. Ao perguntar se o Guaíba, em Porto Alegre, é um rio ou um lago, cada IA dará uma resposta diferente, mas igualmente convincente. Para empresas de desenvolvimento de software, há também os riscos de falhas de segurança em código desenvolvido por IA, que nem sempre irá adotar as melhores práticas de desenvolvimento seguro. E tudo isto acontece sem a visibilidade da organização: 98% das empresas usam aplicações não verificadas ou homologadas de IA, muitas vezes sem o conhecimento da área de TI.
Como o uso de IA é inevitável, as organizações devem se antecipar a essas situações. Regras claras de utilização, treinamento dos usuários, limites de risco e éticos aceitos pelo negócio e a correta homologação das ferramentas em uso podem ajudar a prevenir dores de cabeça futuras. Ter políticas de governança de IA adequadas ajuda a reduzir os riscos da IA sem precisar renunciar às vantagens competitivas trazidas pelo seu uso.
Por Andre Mazeron - Diretor de Segurança da Informação e Operações de TI da Assespro-RS e Sócio Fundador da Leverage Segurança da Informação