: :
os agilistas

ENZIMAS #244 – Como usar a IA sem colocar o negócio em risco

ENZIMAS #244 – Como usar a IA sem colocar o negócio em risco

os agilistas
: :

Marcelo Szuster: Bom dia, boa tarde, boa noite, este é mais um episódio de Enzimas, breves reflexões que te ajudam a catalizar o agilismo em sua organização.  

Pedro Dantas: Bom dia, boa tarde, boa noite, você está ouvindo mais um episódio de Enzimas, meu nome é Pedro Dantas, eu sou rei de cyber segurança aqui na dti digital e estou cá e de volta outra vez para falar sobre os riscos do uso de inteligências artificiais generativas e claro como se resguardar em cima deles. Talvez o primeiro risco de todos que ele começa a aparecer antes mesmo da inteligência artificial estar disponível para o público são os dados de treinamento comprometidos. Como é sabido, a inteligência artificial recebe milhares ou até milhões de dados para que ela possa aprender em cima deles. E claro, se esses dados estiverem comprometidos, o resultado final também estará. Isso envolve tanto a parte técnica quanto a parte de operação. Pela parte técnica, é provável que nós tenhamos vulnerabilidades criadas propositalmente dentro dessa inteligência artificial para que ela possa replicar em outros projetos quando programadores, desenvolvedores forem até ela para pedir em pedaços de código. Imagina então a situação onde um deve, vai até a inteligência artificial na busca de funcionar o seu problema dentro do código e a inteligência artificial até consegue devolver a ele um pedaço, um snippet de código que resolve o problema. Porém, junto dele também cria uma vulnerabilidade de forma proposital, pois antes mesmo dela estar disponível, atacantes conseguiram infiltrar no modelo de treinamento e envenená-lo, dessa forma reproduzindo as vulnerabilidades posteriormente. Claro, tem um problema operacional. Supondo que os dados de treinamento que constituem essa inteligência artificial possuem dados sensíveis, é possível e até mesmo provável que esses dados acabem vazando caso ela seja questionada sobre alguma coisa muito específica e que os dados de treinamento tenham conhecimento sobre isso. E para evitar esses problemas nós recomendamos fortemente que não confie deliberadamente nas respostas da inteligência artificial. Não é só porque uma IA conseguiu produzir aquele código que você precisa necessariamente confiar 100% nele. Na verdade, a gente sabe muito bem que a maioria das vezes esses códigos possuem um ajuste ou outro para poder melhorá-los, afinal as IAs estão só começando. E claro, fica a dica, não coloque em dados sensíveis seus de clientes ou da empresa na conversa com essas inteligências artificiais generativas, porque o fine-tun dela, a capacidade de aprendizado pode ser que ainda esteja ligada e você vai acabar colocando um dado para um risco de exposição muito grande que poderia ser facilmente evitado. Então, confiram as respostas que ela dê para vocês treinem, cria uma cultura para que seus funcionários façam mesmo e de forma alguma insiram dados sensíveis na conversa com ela. Outro risco que não pode ficar de fora, o mais muito popularizado pela LGPD em nosso meio é a necessidade de cumprimento legal, lembrando que a inteligência artificial não cria nada do zero de fato, afinal ela precisou de uma vasta base de aprendizado. E pode ser que em uma de suas respostas ela simplesmente copie e cole um desses pedaços que ela utilizou para aprender, significando que ela está depositando em suas mãos um pedaço de código ou conteúdo geral criado por outra pessoa. Logo, tome bastante cuidado com o que você faz, afinal você pode estar inflingindo diretamente uma lei de copyright. Para evitar esse tipo de problema, recomendamos que você utilize promptes extremamente específicos. Caso você tenha curiosidade sobre como melhorar ou otimizar seus promptes, deixe uma excelente recomendação do Entre Chaves 182. Engenharia de prompt é a chave para transformar a sua produtividade. E para saber segurança, recomendamos que utilize esse prompt específico para seu contexto, querendo perguntas curtas e objetivas. Dessa forma, você provavelmente evitará que a inteligência artificial lhe dê alguma resposta que seja um copyright de outra pessoa. Assim como, se possível, optem sempre pela utilização de assinaturas de enterprise ou de interfaces que já estejam cobertas por esse tipo de fator legal. E já que tocamos no assunto de interfaces, eu recomendo fortemente a utilização de interfaces, afinal é necessário que a sua empresa tenha um ambiente isolado para lidar com inteligência artificial. Vocês vão ver, lendo as políticas de privacidade e os termos de uso, que muitas dessas eartas utilizam os dados que são imputados nela para treinar o próprio modelo. Isso significa que seus dados podem acabar vazando, seja dentro de um mesmo contexto, da mesma instituição ou, nos piores casos, que eles acabem vazando para fora da empresa. Isso aconteceu com pessoas grandes, como por exemplo, a Samsung, um dos maiores players do mercado, e teve os seus dados vazados quando esse boom das inteligências artificiais começou. Dados como credenciais, pedaços de código, entre outras informações extremamente sensíveis, acabaram vindo ao público, porque os seus funcionários utilizavam chat de IPT. Então, eu recomendo fortemente que vocês possam uma assinatura própria para sua empresa em um contexto isolado, de forma que vocês critiquem esses riscos de vazamento. E é claro que os riscos são inúmeros, um episódio de enzimas não seria suficiente para conter todos eles. No geral, tome bastante cuidado com aquilo que vocês fazem, leiam aquilo que vocês estão concordando e aceitando, tenham cautela com esses contratos e principalmente com que vocês compartilham quais inteligências artificiais. Então, esse foi mais um episódio de enzimas, para que tenha tornado a sua navegação e utilização de inteligências artificiais um pouco mais clara e claro, um pouco mais segura. Foi um prazer falar com vocês e até a próxima. 

Marcelo Szuster: Bom dia, boa tarde, boa noite, este é mais um episódio de Enzimas, breves reflexões que te ajudam a catalizar o agilismo em sua organização.   Pedro Dantas: Bom dia, boa tarde, boa noite, você está ouvindo mais um episódio de Enzimas, meu nome é Pedro Dantas, eu sou rei de cyber segurança aqui na dti digital e estou cá e de volta outra vez para falar sobre os riscos do uso de inteligências artificiais generativas e claro como se resguardar em cima deles. Talvez o primeiro risco de todos que ele começa a aparecer antes mesmo da inteligência artificial estar disponível para o público são os dados de treinamento comprometidos. Como é sabido, a inteligência artificial recebe milhares ou até milhões de dados para que ela possa aprender em cima deles. E claro, se esses dados estiverem comprometidos, o resultado final também estará. Isso envolve tanto a parte técnica quanto a parte de operação. Pela parte técnica, é provável que nós tenhamos vulnerabilidades criadas propositalmente dentro dessa inteligência artificial para que ela possa replicar em outros projetos quando programadores, desenvolvedores forem até ela para pedir em pedaços de código. Imagina então a situação onde um deve, vai até a inteligência artificial na busca de funcionar o seu problema dentro do código e a inteligência artificial até consegue devolver a ele um pedaço, um snippet de código que resolve o problema. Porém, junto dele também cria uma vulnerabilidade de forma proposital, pois antes mesmo dela estar disponível, atacantes conseguiram infiltrar no modelo de treinamento e envenená-lo, dessa forma reproduzindo as vulnerabilidades posteriormente. Claro, tem um problema operacional. Supondo que os dados de treinamento que constituem essa inteligência artificial possuem dados sensíveis, é possível e até mesmo provável que esses dados acabem vazando caso ela seja questionada sobre alguma coisa muito específica e que os dados de treinamento tenham conhecimento sobre isso. E para evitar esses problemas nós recomendamos fortemente que não confie deliberadamente nas respostas da inteligência artificial. Não é só porque uma IA conseguiu produzir aquele código que você precisa necessariamente confiar 100% nele. Na verdade, a gente sabe muito bem que a maioria das vezes esses códigos possuem um ajuste ou outro para poder melhorá-los, afinal as IAs estão só começando. E claro, fica a dica, não coloque em dados sensíveis seus de clientes ou da empresa na conversa com essas inteligências artificiais generativas, porque o fine-tun dela, a capacidade de aprendizado pode ser que ainda esteja ligada e você vai acabar colocando um dado para um risco de exposição muito grande que poderia ser facilmente evitado. Então, confiram as respostas que ela dê para vocês treinem, cria uma cultura para que seus funcionários façam mesmo e de forma alguma insiram dados sensíveis na conversa com ela. Outro risco que não pode ficar de fora, o mais muito popularizado pela LGPD em nosso meio é a necessidade de cumprimento legal, lembrando que a inteligência artificial não cria nada do zero de fato, afinal ela precisou de uma vasta base de aprendizado. E pode ser que em uma de suas respostas ela simplesmente copie e cole um desses pedaços que ela utilizou para aprender, significando que ela está depositando em suas mãos um pedaço de código ou conteúdo geral criado por outra pessoa. Logo, tome bastante cuidado com o que você faz, afinal você pode estar inflingindo diretamente uma lei de copyright. Para evitar esse tipo de problema, recomendamos que você utilize promptes extremamente específicos. Caso você tenha curiosidade sobre como melhorar ou otimizar seus promptes, deixe uma excelente recomendação do Entre Chaves 182. Engenharia de prompt é a chave para transformar a sua produtividade. E para saber segurança, recomendamos que utilize esse prompt específico para seu contexto, querendo perguntas curtas e objetivas. Dessa forma, você provavelmente evitará que a inteligência artificial lhe dê alguma resposta que seja um copyright de outra pessoa. Assim como, se possível, optem sempre pela utilização de assinaturas de enterprise ou de interfaces que já estejam cobertas por esse tipo de fator legal. E já que tocamos no assunto de interfaces, eu recomendo fortemente a utilização de interfaces, afinal é necessário que a sua empresa tenha um ambiente isolado para lidar com inteligência artificial. Vocês vão ver, lendo as políticas de privacidade e os termos de uso, que muitas dessas eartas utilizam os dados que são imputados nela para treinar o próprio modelo. Isso significa que seus dados podem acabar vazando, seja dentro de um mesmo contexto, da mesma instituição ou, nos piores casos, que eles acabem vazando para fora da empresa. Isso aconteceu com pessoas grandes, como por exemplo, a Samsung, um dos maiores players do mercado, e teve os seus dados vazados quando esse boom das inteligências artificiais começou. Dados como credenciais, pedaços de código, entre outras informações extremamente sensíveis, acabaram vindo ao público, porque os seus funcionários utilizavam chat de IPT. Então, eu recomendo fortemente que vocês possam uma assinatura própria para sua empresa em um contexto isolado, de forma que vocês critiquem esses riscos de vazamento. E é claro que os riscos são inúmeros, um episódio de enzimas não seria suficiente para conter todos eles. No geral, tome bastante cuidado com aquilo que vocês fazem, leiam aquilo que vocês estão concordando e aceitando, tenham cautela com esses contratos e principalmente com que vocês compartilham quais inteligências artificiais. Então, esse foi mais um episódio de enzimas, para que tenha tornado a sua navegação e utilização de inteligências artificiais um pouco mais clara e claro, um pouco mais segura. Foi um prazer falar com vocês e até a próxima. 

Descrição

Você está utilizando a versão Enterprise da Inteligência Artificial em suas tarefas? Acreditamos que você deveria. Neste episódio do Enzimas, Pedro Dantas, Head de Cibersegurança na dti digital, aponta os erros mais comuns que podem comprometer a segurança de dados corporativos ao utilizar a IA. Ficou curioso? Então, dê o play!

Quer conversar com Os Agilistas? É só mandar sua dúvida/sugestão na nossa página do Linkedin ou pelo e-mail osagilistas@dtidigital.com.br que nós responderemos em um de nossos conteúdos!

Nos acompanhe pelas redes sociais e assine a nossa newsletter que chega todo mês com os assuntos quentes do agilismo através do site.

See omnystudio.com/listener for privacy information.