Tag: #inteligenciaartificial

  • DuckDuckGo lança bate-papo 100% anônimo com IA, Confira!

    DuckDuckGo lança bate-papo 100% anônimo com IA, Confira!

    O DuckDuckGo, conhecido mecanismo de busca que prioriza a privacidade, anunciou hoje o lançamento oficial do DuckDuckGo AI Chat, um recurso integrado que permite aos usuários conversar com diferentes modelos de inteligência artificial (IA) de forma totalmente anônima.

    Esta nova funcionalidade gratuita oferece a opção de escolha entre quatro modelos de IA distintos, garantindo a proteção do anonimato do usuário durante a interação.

    Para entender melhor essa novidade, vamos nos aprofundar nos detalhes do DuckDuckGo AI Chat.

    Acessando o DuckDuckGo AI Chat

    DuckDuckGo lança bate-papo 100% anônimo com IA, Confira!
    Créditos: DuckDuckGo

    O DuckDuckGo anunciou a saída do beta do AI Chat e seu lançamento oficial por meio de uma publicação no blog. De acordo com o anúncio, o DuckDuckGo AI Chat é uma maneira anônima de acessar chatbots populares de IA, incluindo atualmente o GPT 3.5 Turbo da OpenAI, o Claude 3 Haiku da Anthropic e dois modelos de código aberto (Meta Llama 3 e Mixtral 8x7B da Mistral), com a promessa de adição de novas opções no futuro.

    Esse recurso opcional é gratuito para uso dentro de um limite diário e pode ser facilmente desativado nas configurações.

    Veja como o próprio DuckDuckGo descreve os principais recursos do AI Chat e o que está por vir:

    • Conversas privadas e anonimizadas: O DuckDuckGo garante que as conversas sejam privadas, anonimizadas por eles e não utilizadas para nenhum treinamento de modelo de IA.
    • Acesso facilitado: O DuckDuckGo AI Chat pode ser encontrado em duck.ai, duckduckgo.com/chat, na página de resultados de pesquisa na aba “Chat” ou por meio dos atalhos !ai e !chat. Todos esses caminhos levam ao mesmo lugar.
    • Melhorias a caminho: O DuckDuckGo já planeja melhorias para o futuro, incluindo a adição de mais modelos de bate-papo e pontos de entrada no navegador. Eles também estão explorando um plano pago para acesso a limites de uso diário mais altos e modelos mais avançados.

    O DuckDuckGo AI Chat também funciona na Busca privada. Para esclarecer ainda mais a questão da privacidade, a empresa afirma que “os fornecedores do modelo subjacente podem armazenar conversas temporariamente, mas não há como eles vincularem as conversas a você, pessoalmente, pois todos os metadados são removidos.”

    Principais funcionalidades do DuckDuckGo AI Chat

    Para reforçar a ideia de privacidade, vale destacar alguns dos pontos-chave do DuckDuckGo AI Chat:

    • Escolha de modelos de IA: O usuário pode escolher entre diferentes modelos de IA, cada um com suas particularidades e capacidades.
    • Anonimato garantido: As conversas não podem ser rastreadas até nenhum usuário individual, pois o DuckDuckGo remove o endereço IP e utiliza o próprio IP da empresa durante a comunicação com os modelos de IA.
    • Limpeza do histórico: É possível limpar o histórico de conversas a qualquer momento por meio do botão “Limpar” (Fire Button).
    • Armazenamento temporário: Para garantir o funcionamento dos sistemas, os fornecedores dos modelos de IA podem armazenar conversas temporariamente. No entanto, todos os metadados são removidos, tornando impossível vincular a conversa a um usuário específico. Mesmo que você insira seu nome ou outras informações pessoais no chat, os fornecedores do modelo não têm como saber quem digitou o quê.
    • Limite de armazenamento: Todos os chats salvos pelos fornecedores dos modelos de IA são completamente excluídos no prazo de 30 dias. Além disso, nenhuma das conversas feitas na plataforma DuckDuckGo pode ser usada para treinar ou melhorar os modelos.

    É realmente gratuito?

    Sim! O AI Chat é gratuito para usar, respeitando um limite diário – implementado pelo DuckDuckGo para manter o anonimato rigoroso do usuário, assim como acontece com o mecanismo de busca. A empresa planeja manter o nível atual de acesso gratuito e está explorando a possibilidade de um plano pago para acesso a limites mais altos e modelos de bate-papo mais avançados (e caros).

    O que vem por aí?

    DuckDuckGo lança bate-papo 100% anônimo com IA, Confira!

    O DuckDuckGo está animado para divulgar o AI Chat, mas já existem melhorias a caminho. A plataforma ficará de olho em novas funcionalidades, como comandos personalizados do sistema e melhorias gerais na experiência do usuário do AI Chat. Eles também planejam adicionar mais modelos de bate-papo, incluindo potencialmente opções hospedadas pelo próprio DuckDuckGo ou pelo usuário. Se você estiver interessado em ver um modelo ou recurso específico de bate-papo adicionado no futuro, informe a empresa por meio do botão “Compartilhar feedback” na tela do AI Chat.

    Problemas do não anonimato em outros chats de IA

    DuckDuckGo lança bate-papo 100% anônimo com IA, Confira!

    A integração de chatbots de IA em diversas plataformas online, como o recente lançamento do DuckDuckGo AI Chat, abre um leque de possibilidades para interação e acesso à informação. No entanto, a questão do anonimato nessas interações levanta preocupações cruciais que exigem uma análise aprofundada.

    1. Violação de privacidade e segurança:

    • Coleta de Dados e Rastreamento: Empresas e desenvolvedores de IA podem coletar e armazenar dados pessoais de usuários durante as conversas em chats de IA, como nome, endereço IP, histórico de conversas e preferências. Essa coleta de dados, sem o consentimento explícito e transparente do usuário, configura-se como uma violação da privacidade.
    • Perfis Comportamentais e microtargeting: O uso dos dados coletados pode gerar perfis comportamentais detalhados dos usuários, permitindo o direcionamento preciso de publicidade e propaganda. Essa prática, conhecida como microtargeting, pode influenciar decisões e escolhas dos usuários de forma indevida, além de representar um risco à autonomia individual.
    • Falhas de Segurança e Vazamentos de Dados: A natureza digital dos chats de IA os torna vulneráveis a falhas de segurança e vazamentos de dados. Caso ocorram, essas falhas podem expor informações confidenciais dos usuários, como dados bancários, senhas e informações de saúde, causando danos graves à sua reputação e segurança financeira.

    2. Viés algorítmico e discriminação:

    • Modelos de IA Treinados em Dados Viciados: Modelos de IA que alimentam chatbots são treinados em conjuntos de dados massivos, os quais podem conter vieses e preconceitos preexistentes da sociedade. Isso pode levar à perpetuação de estereótipos e discriminação em suas respostas, causando ofensa e sofrimento a grupos minoritários.
    • Falta de Diversidade nas Equipes de Desenvolvimento: A falta de representatividade de diferentes grupos sociais nas equipes de desenvolvimento de IA pode contribuir para a criação de modelos enviesados que não refletem a diversidade da sociedade. Isso reforça as desigualdades existentes e marginaliza grupos minoritários.
    • Dificuldade na Detecção e Correção de Viés: Detectar e corrigir vieses algorítmicos em modelos de IA é uma tarefa complexa e desafiadora. Isso se deve à natureza complexa dos algoritmos e à dificuldade em identificar e quantificar os diferentes tipos de vieses presentes nos dados de treinamento.

    3. Manipulação e desinformação:

    • Propagação de Fake News e Conteúdo Malicioso: Chats de IA podem ser utilizados para propagar notícias falsas, desinformação e conteúdo malicioso, com o objetivo de influenciar a opinião pública, gerar conflitos sociais ou prejudicar a reputação de indivíduos ou empresas.
    • Engenharia Social e Ataques de Phishing: A capacidade dos chatbots de IA de simular conversas humanas pode ser usada para realizar engenharia social e ataques de phishing, induzindo usuários a fornecer informações confidenciais ou clicar em links maliciosos.
    • Dificuldade na Autenticação de Fontes: A natureza anônima de alguns chats de IA pode dificultar a autenticação da fonte das informações recebidas, tornando os usuários mais suscetíveis à manipulação e à desinformação.

    4. Falta de transparência e responsabilidade:

    • Algoritmos opacos e Caixa Preta: O funcionamento interno dos modelos de IA que alimentam chatbots nem sempre é transparente, dificultando a compreensão de como as decisões são tomadas e quais dados são utilizados. Essa falta de transparência cria uma “caixa preta” que impede o escrutínio público e a responsabilização das empresas por seus sistemas de IA.
    • Desresponsabilização em Casos de Erro ou Dano: Em caso de erros ou danos causados por chatbots de IA, a responsabilidade pode ser difícil de determinar, devido à complexa interação entre os modelos de IA, os desenvolvedores, as empresas e os usuários. Isso cria um ambiente de impunidade e dificulta a busca por justiça em caso de violações.

    5. Impacto na saúde mental e bem-estar:

    • Interação Desumanizada e Falta de Empatia: A natureza artificial dos chatbots de IA pode gerar uma sensação de desumanização e falta de empatia nas interações, especialmente em situações que exigem apoio emocional ou compreensão profunda de sentimentos complexos.
    • Dependência Emocional e Isolamento Social: O uso excessivo de chatbots de IA como fonte principal de interação social pode levar à dependência emocional e ao isolamento social, prejudicando o desenvolvimento de habilidades interpessoais e o bem-estar

    Priorizando a privacidade e a responsabilidade

    DuckDuckGo lança bate-papo 100% anônimo com IA, Confira!
    Dall-E 3

    Diante dos desafios apresentados, é fundamental que o desenvolvimento e a utilização de chats de IA sejam guiados por princípios éticos e responsáveis que priorizem a privacidade, a segurança, a transparência e o bem-estar dos usuários.

    Medidas Necessárias para um Futuro Positivo:

    • Transparência e Explicabilidade: Desenvolvedores de IA devem garantir a transparência no funcionamento dos modelos de IA, fornecendo documentação detalhada sobre os dados utilizados, os algoritmos envolvidos e os processos de tomada de decisão. Isso permite que usuários e especialistas avaliem os riscos e potenciais vieses dos sistemas de IA.

    • Proteção de Dados e Anonimato: A coleta e o armazenamento de dados de usuários em chats de IA devem ser realizados com o consentimento explícito e transparente, com medidas rigorosas de segurança para proteger a privacidade dos dados. O anonimato deve ser uma opção para os usuários que desejam interagir sem revelar suas identidades.
    • Diversidade e Inclusão nas Equipes de Desenvolvimento: É crucial promover a diversidade e a inclusão nas equipes de desenvolvimento de IA, garantindo que diferentes grupos sociais sejam representados no processo de criação e avaliação dos modelos. Isso ajuda a mitigar vieses algorítmicos e garantir que os sistemas de IA sejam justos e equitativos para todos.
    • Combate ao Viés Algorithmic e à Discriminação: Implementação de técnicas para detectar e corrigir vieses algorítmicos nos modelos de IA é essencial para garantir que os sistemas não perpetuem estereótipos ou discriminem grupos minoritários. Auditorias regulares e testes de viés devem ser realizados para identificar e eliminar potenciais problemas.
    • Combate à Manipulação e Desinformação: Implementação de mecanismos para identificar e remover notícias falsas, desinformação e conteúdo malicioso dos chats de IA é fundamental para combater a manipulação da opinião pública e proteger os usuários de informações enganosas.
    • Responsabilidade e Algoritmos Auditáveis: Estabelecer mecanismos claros de responsabilidade para empresas e desenvolvedores de IA em caso de erros ou danos causados por seus sistemas é crucial para garantir a justiça e a proteção dos usuários. Algoritmos auditáveis permitem que especialistas examinem o funcionamento dos modelos e identifiquem falhas ou problemas.
    • Promoção da Educação e Conscientização: É fundamental promover a educação e a conscientização sobre os riscos e benefícios dos chats de IA, capacitando os usuários para tomar decisões informadas sobre seu uso e proteger sua privacidade e bem-estar.

    Os chats de IA têm o potencial de revolucionar a forma como interagimos com a informação e com o mundo digital. No entanto, para que esse potencial seja realizado de forma ética e responsável, é crucial que os desafios relacionados à privacidade, segurança, viés algorítmico e manipulação sejam seriamente considerados e abordados. Através da implementação de medidas robustas de proteção e da promoção de princípios éticos no desenvolvimento e uso de IA, podemos garantir que os chats de IA contribuam para um futuro mais positivo e inclusivo para todos.

  • Spot: Holanda está utilizando robôs para combater o tráfico de drogas

    Spot: Holanda está utilizando robôs para combater o tráfico de drogas

    A força policial da Holanda está à frente da inovação, usando robôs Spot para auxiliar em incursões em laboratórios de drogas. Essa iniciativa tem como objetivo proteger os oficiais de riscos criminais, substâncias explosivas e ameaças químicas, representando um passo significativo na tecnologia e na luta contra o tráfico de drogas.

    O robô Spot e suas capacidades

    Spot: Holanda está utilizando robôs para combater o tráfico de drogas
    Créditos: Boston Dynamics

    O robô, desenvolvido pela Boston Dynamics e nomeado Spot, é capaz de inspecionar instalações de forma independente, mapear a área e detectar produtos químicos perigosos. Em testes iniciais, Spot demonstrou a capacidade de explorar e mapear uma simulação de laboratório de drogas de 15 por 20 metros, encontrando e movendo com sucesso substâncias perigosas para um contêiner designado.

    O robô está equipado com módulos e câmeras adicionais para permitir a varredura a laser, monitoramento visual, térmico, de radiação e acústico. Durante as tarefas, o braço e a garra combinados do Spot permitem que ele levante e mova objetos de até 6,8 kg e arraste objetos de até 22,6 kg, enquanto a maioria dos robôs possui apenas garras simples, se houver.

    Vantagens do uso de robôs autônomos

    Spot: Holanda está utilizando robôs para combater o tráfico de drogas
    Créditos: Boston Dynamics

    A utilização de Spot em um ambiente real permitirá que a polícia opere à distância segura, minimizando os riscos aos oficiais. O robô pode ser equipado com câmeras, transmissores de rádio e outros equipamentos de reconhecimento tático. Esses avanços tecnológicos abrem novas oportunidades para as forças policiais no combate ao crime de drogas, garantindo um alto nível de segurança e eficiência nas operações.

    Aplicações em incursões em laboratórios de drogas

    A polícia holandesa realiza essas incursões pelo menos três a quatro vezes por semana. Ao implantar robôs autônomos, o objetivo é manter os oficiais fora de perigo enquanto desmantelam diversos equipamentos em laboratórios de drogas.

    “Quando o laboratório está em operação e você o interrompe, ele pode explodir. Normalmente, se as pessoas entrarem usando roupas de proteção e tal, elas não podem se mover tão rápido, só podem trabalhar por 20 minutos”, disse Simon Prins, da Politie Nederland, ao New Scientist.

    Testes e implementação futura

    Spot: Holanda está utilizando robôs para combater o tráfico de drogas
    Créditos: Boston Dynamics

    Desde 2021, a força já vem utilizando um quadrúpede Spot, equipado com um braço robótico da Boston Dynamics, para realizar incursões e vigilância em laboratórios de drogas. No entanto, o Spot é controlado remotamente por um operador.

    O robô cão tem sido útil, pois pode passar por portas e outros pequenos obstáculos. Ele faz isso usando câmeras e outros sensores. Um agente usando um controle remoto opera seu braço robótico altamente hábil para realizar as tarefas desejadas.

    Nos últimos anos, os robôs quadrúpedes passaram por avanços tecnológicos significativos, permitindo-lhes navegar por diversos terrenos, suportar temperaturas extremas e realizar tarefas mais complexas. Isso levou a força holandesa a explorar operações totalmente autônomas com o Spot.

    Contextualização

    O tráfico de drogas é um problema grave na Holanda, com apreensões recordes de cocaína e metanfetamina nos últimos anos. As incursões em laboratórios de drogas são uma parte crucial dos esforços de aplicação da lei para combater o crime, mas representam um risco significativo para os oficiais devido à presença de substâncias perigosas, explosivos e criminosos armados.

    A tecnologia de robótica autônoma está em rápido desenvolvimento, oferecendo novas oportunidades para as forças policiais em todo o mundo. A utilização de robôs cães autônomos com IA em incursões em laboratórios de drogas representa uma aplicação inovadora dessa tecnologia que tem o potencial de transformar a forma como a polícia combate o crime.

    Considerações Finais

    A introdução de robôs cães autônomos com IA na polícia holandesa marca um passo importante na modernização das operações policiais e na luta contra o tráfico de drogas. Com a capacidade de inspecionar laboratórios de drogas com segurança e eficiência, esses robôs têm o potencial de salvar vidas e reduzir o risco para os oficiais.

    O uso de robôs autônomos na aplicação da lei levanta questões éticas e sociais que precisam ser cuidadosamente consideradas. É importante garantir que esses robôs sejam usados ​​de forma responsável e que os direitos humanos sejam sempre respeitados. No entanto, o potencial de salvar vidas e reduzir o risco para os oficiais torna essa tecnologia uma ferramenta valiosa na luta contra o crime.

  • GPT-4 se tornou capaz de invadir sistemas vulneráveis de forma autônoma

    GPT-4 se tornou capaz de invadir sistemas vulneráveis de forma autônoma

    Um estudo demonstrou que o GPT-4, um modelo de linguagem avançada, pode ser utilizado para explorar vulnerabilidades de segurança de forma autônoma, inclusive aquelas ainda desconhecidas (chamadas de “zero-day”). A pesquisa realizada por um grupo de cientistas da computação causou arrepios na comunidade de segurança cibernética.

    Há alguns meses, o mesmo grupo já havia demonstrado a capacidade do GPT-4 de explorar vulnerabilidades conhecidas (também conhecidas como “one-day” ou “N-day”), alcançando impressionantes 87% de sucesso em falhas críticas listadas na base de dados Common Vulnerabilities and Exposures (CVE).

    Agora, o novo estudo vai além, demonstrando a habilidade do GPT-4 de atuar como um hacker autônomo. Utilizando um método chamado “Planejamento Hierárquico com Agentes Específicos para Tarefas” (HPTSA, na sigla em inglês), o GPT-4 se organiza em equipes autônomas e autopropagadoras.

    Diferentemente de uma abordagem convencional onde um único agente LLM tentaria resolver todas as tarefas, o HPTSA utiliza um “agente de planejamento” central. Esse agente funciona como um maestro, coordenando toda a operação e delegando tarefas para “subagentes” especializados. Imagine um gerente e sua equipe: o gerente planeja a estratégia, atribui tarefas a especialistas e monitora o progresso, otimizando o trabalho como um todo.

    Esse método é similar ao utilizado pela Cognition Labs com seu software de desenvolvimento de IA, o Devin. O Devin mapeia o trabalho, identifica as competências necessárias e gerencia o processo, criando “funcionários virtuais” especializados para cada tarefa específica.

    O poder da colaboração com o GPT

    GPT-4 se tornou capaz de invadir sistemas vulneráveis de forma autônoma

    Os resultados do estudo são alarmantes, mas também reveladores. O HPTSA demonstrou ser 550% mais eficiente que um único LLM na exploração de vulnerabilidades, obtendo êxito em 8 das 15 falhas zero-day testadas. Um LLM solitário, por outro lado, só conseguiu explorar 3 das vulnerabilidades.

    É claro que surge a preocupação: essas técnicas poderiam ser usadas por criminosos para atacar sistemas de forma autônoma? Daniel Kang, um dos pesquisadores e autor do estudo, tranquiliza parcialmente. Ele afirma que o GPT-4, no modo “chatbot”, é “insuficiente para explorar todo o potencial de um LLM” e não conseguiria realizar ataques sozinho.

    Ao questionar o ChatGPT sobre sua capacidade de explorar falhas zero-day, a resposta foi: “Não, eu não sou capaz de explorar vulnerabilidades zero-day. Meu propósito é fornecer informação e assistência dentro de limites éticos e legais.” A resposta final sugeria consultar um profissional de segurança cibernética.

    Corrida armamentista cibernética?

    GPT-4 se tornou capaz de invadir sistemas vulneráveis de forma autônoma

    A pesquisa levanta questões complexas. A inteligência artificial autônoma, que se pensava ser uma ferramenta para fortalecer a segurança, pode se tornar uma arma nas mãos erradas. É essencial que a comunidade científica e de segurança trabalhem juntas para desenvolver medidas de proteção contra ataques autônomos.

    Imagine um futuro onde robôs virtuais percorrem a internet, testando milhões de vulnerabilidades por segundo. O cenário é preocupante, mas a conscientização e o desenvolvimento de defesas ativas são fundamentais para minimizar os riscos.

    Esta pesquisa abre uma nova frente na corrida armamentista cibernética. O avanço da IA autônoma exige investimentos robustos em segurança cibernética, tanto na prevenção quanto na detecção e mitigação de ataques baseados em técnicas como o HPTSA.

    Além disso, o estudo reforça a importância da ética no desenvolvimento de IA. É preciso criar mecanismos que garantam o uso responsável dessas tecnologias, priorizando a segurança e o bem-estar coletivo.

    A pesquisa sobre o GPT-4 e o HPTSA é um divisor de águas. É um alerta para os perigos potenciais da IA autônoma, mas também uma oportunidade para fortalecer nossas defesas e traçar um futuro responsável para a tecnologia.

    Implicações e o Futuro da Segurança Cibernética

    GPT-4 se tornou capaz de invadir sistemas vulneráveis de forma autônoma

    A pesquisa sobre a exploração autônoma de falhas zero-day pelo GPT-4 levanta uma série de questões sobre o futuro da segurança cibernética. Vamos explorar algumas delas:

    1. Corrida armamentista na cibernética: O surgimento de ferramentas como o HPTSA pode iniciar uma corrida armamentista cibernética. Criminosos podem investir em IA para desenvolver ataques autônomos cada vez mais sofisticados. A comunidade de segurança precisará se empenhar em desenvolver defesas equivalentes, criando um ciclo contínuo de inovação.

    2. Mudança na natureza dos ataques: Até então, ataques cibernéticos geralmente eram realizados por humanos, com planejamento e exploração manual de vulnerabilidades. A IA autônoma muda esse cenário. Ataques podem se tornar mais rápidos, automatizados e difíceis de rastrear.

    3. Aumento da superfície de ataque: Com a proliferação de dispositivos conectados à internet (Internet of Things – IoT), a superfície de ataque se expande exponencialmente. A IA autônoma pode explorar vulnerabilidades em milhões de dispositivos simultaneamente, tornando os ataques em massa uma possibilidade real.

    4. Impacto na segurança nacional: A capacidade de explorar falhas zero-day pode ser usada para comprometer infraestruturas críticas, como redes de energia elétrica, sistemas de transporte e comunicações. Isso representa um sério risco à segurança nacional e requer uma cooperação internacional para mitigar esse tipo de ameaça.

    Como se preparar para o futuro

    GPT-4 se tornou capaz de invadir sistemas vulneráveis de forma autônoma

    Diante desse cenário, o que podemos fazer para nos preparar? Aqui estão algumas sugestões:

    1. Investimento em segurança proativa: É necessário focar em medidas de segurança proativas, como a identificação e correção de vulnerabilidades antes que sejam exploradas. A utilização de técnicas de “pen testing” (testes de intrusão) automatizados pode ser uma aliada importante.

    2. Detecção e resposta a incidentes avançadas: Sistemas de detecção e resposta a incidentes (SIEM e SOAR) precisam ser atualizados para identificar e responder rapidamente a ataques autônomos. A inteligência artificial também pode ser usada para fortalecer esses sistemas, criando uma defesa baseada em IA contra ataques baseados em IA.

    3. Conscientização e educação: A conscientização dos usuários é fundamental. Empresas e indivíduos precisam estar cientes das ameaças emergentes e adotar práticas seguras, como manter softwares atualizados e utilizar senhas fortes.

    4. Regulamentação e ética no desenvolvimento de IA: É fundamental estabelecer normas éticas para o desenvolvimento e uso de IA. Governos e empresas precisam trabalhar juntos para garantir que a IA seja usada de forma responsável e não se torne uma arma nas mãos erradas.

    5. Pesquisa contínua: A comunidade científica deve continuar investindo em pesquisas para desenvolver técnicas de defesa contra ataques baseados em IA. A cooperação internacional é essencial para compartilhar conhecimento e desenvolver soluções globais.

    Conclusão

    GPT-4 se tornou capaz de invadir sistemas vulneráveis de forma autônoma
    Dall-E 3

    A pesquisa sobre o GPT-4 e o HPTSA é um marco importante na evolução da inteligência artificial. Enquanto nos preocupa com os riscos potenciais, também abre caminho para avanços significativos na segurança cibernética. O futuro depende da nossa capacidade de utilizar a IA de forma ética e responsável, priorizando a segurança e o bem-estar da sociedade.

    É crucial que a comunidade científica, empresas, governos e indivíduos trabalhem em conjunto para fortalecer as defesas cibernéticas e enfrentar os desafios impostos pela IA autônoma. A pesquisa sobre o GPT-4 não é um prenúncio do apocalipse cibernético, mas sim um alerta para a necessidade de uma atuação proativa e colaborativa para garantir um futuro seguro no mundo digital.

  • Neutralidade forçada: Google e Microsoft programam chatbots para não discutirem resultados eleitorais – 2024

    Neutralidade forçada: Google e Microsoft programam chatbots para não discutirem resultados eleitorais – 2024

    Com o avanço rápido da tecnologia, os chatbots estão se tornando uma presença cada vez mais comum na vida cotidiana, oferecendo desde suporte técnico até respostas para perguntas triviais.

    No entanto, estamos em uma época onde a desinformação e as fake news se proliferam com uma velocidade alarmante, duas das maiores empresas de tecnologia do mundo, Google e Microsoft, tomaram uma decisão que está gerando polêmica e debates: seus chatbots de inteligência artificial, Gemini e Copilot, respectivamente, se recusam a discutir os resultados das eleições, incluindo a eleição presidencial dos Estados Unidos de 2020.

    Com menos de seis meses para as próximas eleições presidenciais americanas, essa medida levantou muitas questões sobre o papel da tecnologia na disseminação de informações e sobre os limites da censura digital.

    A decisão e seus motivos

    Neutralidade forçada: Google e Microsoft programam Chatbots para não discutirem resultados eleitorais

    A decisão de Google e Microsoft de programar seus chatbots para evitarem discussões sobre resultados eleitorais parece ser uma resposta direta ao ambiente altamente polarizado e à proliferação de desinformação política. Desde as eleições de 2016, as plataformas digitais têm sido acusadas de serem veículos para a disseminação de informações falsas, o que pode influenciar a opinião pública e afetar processos democráticos. A eleição de 2020 nos Estados Unidos, em particular, foi marcada por acusações infundadas de fraude eleitoral e por uma enxurrada de desinformação.

    Ao impedir que Gemini e Copilot discutam quem ganhou a eleição de 2020, Google e Microsoft podem estar tentando evitar que suas plataformas sejam usadas para perpetuar teorias da conspiração e informações incorretas. Esta medida preventiva visa garantir que as informações fornecidas por suas inteligências artificiais não sejam mal utilizadas para fins de desinformação.

    As implicações da neutralidade forçada

    Neutralidade forçada: Google e Microsoft programam Chatbots para não discutirem resultados eleitorais
    Créditos: Freepik

    Embora a intenção por trás dessa decisão possa ser louvável, ela também levanta preocupações significativas. Uma das principais críticas é que, ao se recusarem a reconhecer um fato amplamente aceito – que Joe Biden venceu a eleição de 2020 – esses chatbots podem estar contribuindo para uma percepção de neutralidade forçada que não reflete a realidade. A verdade factual é essencial para a confiança pública, e a incapacidade dos chatbots de afirmar resultados eleitorais confirmados pode ser vista como uma falha em fornecer informações precisas.

    Além disso, essa abordagem pode ser vista como uma forma de censura. Ao evitarem temas politicamente sensíveis, essas empresas de tecnologia podem estar limitando a liberdade de expressão e o direito do público de acessar informações relevantes e verificadas. A linha entre moderação de conteúdo para evitar desinformação e censura pode ser tênue, e a decisão de Google e Microsoft pode estar se aproximando perigosamente desta linha.

    O Papel dos Chatbots na sociedade atual

    Neutralidade forçada: Google e Microsoft programam Chatbots para não discutirem resultados eleitorais
    Créditos: ChatGPT

    Os chatbots de inteligência artificial, como Gemini e Copilot, estão se tornando ferramentas cada vez mais integradas na vida cotidiana, oferecendo assistência em uma variedade de tarefas, desde responder a perguntas triviais até fornecer suporte técnico. Com sua crescente influência, vem uma responsabilidade igualmente crescente para garantir que essas ferramentas sejam usadas de maneira ética e responsável.

    A decisão de não discutir resultados eleitorais pode ser vista como uma tentativa de garantir que os chatbots não sejam usados para fins políticos ou para influenciar a opinião pública de maneira imprópria. No entanto, também destaca a necessidade de uma abordagem equilibrada, onde a precisão e a verdade não sejam sacrificadas em nome da neutralidade.

    Desafios e soluções potenciais

    Neutralidade forçada: Google e Microsoft programam Chatbots para não discutirem resultados eleitorais
    Créditos: Resposta ao Covid / UN

    Para equilibrar a necessidade de evitar desinformação com a obrigação de fornecer informações precisas, Google e Microsoft poderiam considerar a implementação de medidas adicionais, como a integração de fontes verificadas e confiáveis de informações em seus chatbots. Por exemplo, ao discutir temas politicamente sensíveis, os chatbots poderiam citar diretamente fontes oficiais, como a Comissão Federal de Eleições dos Estados Unidos ou outras organizações respeitadas de verificação de fatos.

    Além disso, a transparência é crucial. As empresas de tecnologia precisam ser abertas sobre as razões por trás de suas decisões de moderação de conteúdo e sobre os algoritmos que governam suas inteligências artificiais. Isso pode ajudar a construir confiança com os usuários e a garantir que as decisões sejam vistas como justas e necessárias, em vez de arbitrárias ou censuradoras.

    O Futuro da “moderação” de conteúdo

    A situação atual com Gemini e Copilot é um exemplo claro dos desafios contínuos na moderação de conteúdo digital. À medida que as tecnologias de inteligência artificial continuam a evoluir e a se integrar mais profundamente em nossas vidas, será cada vez mais importante encontrar maneiras de equilibrar a necessidade de evitar a disseminação de desinformação com o direito do público a informações precisas e verificadas.

    A abordagem de Google e Microsoft pode servir como um ponto de partida para uma discussão mais ampla sobre como as empresas de tecnologia devem lidar com informações politicamente sensíveis. Com a eleição presidencial de 2024 se aproximando rapidamente, as decisões que estas empresas tomarem agora terão um impacto duradouro sobre a forma como a informação é gerida e disseminada no futuro.

    Conclusão

    A recusa dos chatbots Gemini e Copilot em reconhecer a vitória de Joe Biden na eleição presidencial de 2020 é uma medida preventiva contra a desinformação, mas também levanta questões sobre censura e a disseminação de informações precisas. Encontrar um equilíbrio entre evitar a propagação de fake news e garantir a veracidade das informações será um desafio contínuo para Google, Microsoft e outras empresas de tecnologia, especialmente em um cenário político global cada vez mais polarizado.

  • Desinformação nas Olimpíadas (04/06/2024): como IA será usada para semear a discórdia

    Desinformação nas Olimpíadas (04/06/2024): como IA será usada para semear a discórdia

    Conforme as olimpíadas se aproximam, um desconforto começa a crescer. A ameaça desta vez é a desinformação, e não um vírus.

    Em 52 dias as Olimpíadas de Paris terão início, e por mais que seja uma fonte de alegria e entretenimento, também vai acarretar muita controvérsia.

    As Olimpíadas, um símbolo global de união e celebração esportiva, estão sob a sombra de uma ameaça crescente: a desinformação orquestrada por atores de influência russos. Através de campanhas sofisticadas que exploram a inteligência artificial (IA), a Rússia busca minar a credibilidade dos Jogos, semear discórdia e alimentar o medo entre atletas e espectadores.

    As Olimpíadas de Paris 2024, uma celebração da proeza atlética global e da união internacional, estão enfrentando uma ameaça crescente: campanhas sofisticadas de desinformação orquestradas por atores de influência russos.

    Um relatório recente do Microsoft Threat Analysis Center (MTAC) revela uma tendência perturbadora – o uso de inteligência artificial (IA) para criar notícias falsas, vídeos e imagens altamente convincentes, destinadas a minar os Jogos e alimentar o medo entre atletas e espectadores.

    A desinformação se consolida como esporte nas olimpíadas

    Desinformação à espreita em Paris 2024: como a Rússia usou inteligência artificial para semear discórdia
    Créditos: Freepik

    Esta não é a primeira vez que a Rússia tem como alvo as Olimpíadas. As campanhas de desinformação são motivo de preocupação há anos. No entanto, o uso de IA marca uma escalada significativa. Um ator notório, conhecido como Storm-1679, tomou grandes medidas para enganar os espectadores.

    Eles criaram um documentário falso intitulado “Olimpíadas em Queda”, completo com áudio gerado por IA imitando a voz do ator de Hollywood Tom Cruise, criticando o Comitê Olímpico Internacional (COI). Esta produção, completa com uma introdução falsificada da Netflix e resenhas fabricadas, visava dar um ar de legitimidade à sua narrativa falsa.

    Além do documentário “Cruise”, Storm-1679 produziu uma série de conteúdo enganoso. Artigos de notícias falsas disfarçados de veículos de comunicação legítimos, como Euro News e France24, espalharam falsidades sobre questões de segurança pública em Paris.

    Vídeos fabricados que se dizem de agências de inteligência, incluindo a CIA e sua contraparte francesa, foram usados ​​para alertar os espectadores sobre um risco maior de terrorismo durante os Jogos.

    O conflito em curso entre Israel e Hamas também foi explorado. Imagens, geradas com IA de acordo com a Microsoft, retrataram pichações ameaçadoras direcionadas a israelenses que participarão das Olimpíadas.

    Essas imagens perturbadoras evocam a memória sombria das Olimpíadas de Munique de 1972, onde militantes palestinos mataram 11 atletas, treinadores e oficiais israelenses.

    Outro vídeo, supostamente criado por um grupo ultranacionalista turco e amplificado por bots pró-Rússia, amplia ainda mais essa tática. Ele faz referência à tragédia de Munique, sugerindo um ataque semelhante nos próximos Jogos. Embora a origem específica deste vídeo permaneça obscura, sua promoção por contas ligadas à Rússia sugere que faz parte de uma campanha de desinformação mais ampla.

    As ações da Rússia decorrem da decisão do Comitê Olímpico Internacional de proibir os atletas de competirem sob a bandeira russa devido à guerra na Ucrânia. Embora atletas individuais possam competir como neutros sob procedimentos rigorosos de verificação, a Rússia está claramente tentando atrapalhar os Jogos e lançar uma sombra sobre o evento.

    Essas táticas sofisticadas de desinformação baseadas em IA representam uma ameaça real ao espírito das Olimpíadas. É crucial que espectadores e meios de comunicação estejam vigilantes e avaliem criticamente todas as informações encontradas online. Recursos de checagem de fatos e uma dose saudável de ceticismo serão ferramentas vitais na luta contra a manipulação online.

    A comunidade internacional também deve trabalhar em conjunto para combater esses esforços. São necessários esforços colaborativos entre empresas de tecnologia, agências de inteligência e organizações de mídia para expor e desmantelar essas campanhas de desinformação.

    Trabalhando juntos, podemos garantir que as Olimpíadas de Paris 2024 permaneçam como uma verdadeira celebração do esporte e da união internacional, apesar das sombras lançadas por atores maliciosos.

    A desinformação russa representa uma grave ameaça às Olimpíadas de Paris 2024. É crucial que a comunidade internacional se mobilize para combater essa campanha maliciosa. Através da colaboração entre empresas de tecnologia, agências de inteligência, organizações de mídia e o público em geral, podemos expor as mentiras da Rússia e proteger a integridade dos Jogos.

    Desinformação à espreita em Paris 2024: como a Rússia usou inteligência artificial para semear discórdia
    Créditos: Divulgação / Olimpíadas de Paris

    Para garantir o sucesso das Olimpíadas, é necessário:

    • Combater a desinformação na fonte: Desativar as contas de bot e no mínimo marcar conteúdo falso das plataformas online.
    • Verificar fatos: Ampliar o acesso a recursos de checagem de fatos e promover a educação midiática.
    • Aumentar a transparência: Colaborar com as autoridades e compartilhar informações sobre as campanhas de desinformação.
    • Proteger a liberdade de expressão: Salvar o direito à livre expressão e evitar a censura indevida.

    Somente com um esforço conjunto e coordenado podemos garantir que as Olimpíadas de Paris 2024 sejam um verdadeiro símbolo de união, paz e celebração esportiva, livre da sombra da desinformação.

  • Programa de residência em inteligência artificial aumentará competitividade de agroindústrias de MT

    Programa de residência em inteligência artificial aumentará competitividade de agroindústrias de MT

    A inteligência artificial surgiu como uma das tecnologias revolucionárias de nosso tempo, que pode ser implementada em diversos setores, inclusive em agroindústrias. E com o objetivo de gerar maior competitividade na agroindústria mato-grossense, o Instituto Senai de Tecnologia (IST MT), por meio do SenaiHub, lançou o programa de residência em inteligência artificial, que as empresas interessadas podem aderir.

    Na prática, o programa recrutará pesquisadores da área de inteligência artificial para atuarem como bolsistas, encontrando soluções tecnológicas para as indústrias participantes. O programa inicia em julho deste ano e será executado durante 12 meses.

    Entre as soluções que a iniciativa pode oferecer está o aumento da eficiência, a otimização de processos, a automatização de tarefas, a análise de dados, além da prevenção e redução de falhas.

    A gerente de Tecnologia e Inovação do Senai MT, Naiara Galliani, explicou que um dos grandes desafios relatados pelas indústrias em Mato Grosso é a mão de obra e que a inteligência artificial pode reduzir este gargalo, com atuação em trabalhos repetitivos.

    “É uma ótima alternativa para quem quer adotar tecnologia e ainda não sabe como fazer. Além disso, também é uma boa oportunidade para resolver desafios, otimizar processos, mas também fazer com que a empresa tenha uma consciência tecnológica maior. Então essa empresa que aderir ao programa vai melhorar a capacidade de adoção de tecnologia e terá uma maior capacidade para resolver os desafios”, explicou Naiara.

    O programa foi lançado em outubro de 2023 e, na ocasião, contou com a presença do consultor de PDI do Senai Paraná, Marcos Paulo, que falou sobre o udo de inteligência artificial nos negócios.

    “Temos uma estrutura e equipe montada para ajudá-los a desmitificar esse aspecto de que a IA não é para mim, que é difícil de ser implantada, que eu não tenho competência para me apropriar dessa tecnologia. O HUB tem exatamente essa missão, apoiar as empresas para que elas consigam fazer essa adoção e melhorar a competitividade”, disse Marcos durante o lançamento.

  • Golpe com Inteligência Artificial: Multinacional sofre perda de R$ 127 Milhões

    Golpe com Inteligência Artificial: Multinacional sofre perda de R$ 127 Milhões

    Criminosos utilizam inteligência artificial para roubar aproximadamente R$ 127 milhões de renomada empresa multinacional Uma destacada corporação multinacional tornou-se alvo de um golpe financeiro sofisticado, resultando na perda de 200 milhões de dólares de Hong Kong (cerca de R$ 126,5 milhões), conforme noticiado pelo South China Morning Post, citado pela Folha de S. Paulo.

    O golpe teve início por meio de uma mensagem de phishing, utilizada como isca para estabelecer o contato inicial. Posteriormente, os criminosos empregaram imagens públicas do diretor financeiro da empresa, que se encontrava no Reino Unido, para criar representações convincentes dele e de outras figuras-chave.

    Por fim, eles aplicaram a tecnologia deepfake em chamadas de vídeo com funcionários do departamento financeiro da multinacional. Dessa forma, os fraudadores conseguiram ludibriar as vítimas a realizar um total de 15 transferências para contas bancárias em Hong Kong. As transferências fraudulentas foram destinadas a cinco contas bancárias situadas no território, indicando que os golpistas operavam, pelo menos em parte, localmente. A polícia não conseguiu identificar a empresa nem os funcionários envolvidos.

    O emprego de deepfake em fraudes financeiras representa um novo desafio nos ciberataques. Esse incidente marca um capítulo preocupante nos ataques a empresas e destaca a vulnerabilidade diante de tecnologias avançadas.

  • INSS testa inteligência artificial para identificar fraudes

    INSS testa inteligência artificial para identificar fraudes

    Ao longo dos próximos 30 dias, o Instituto Nacional do Seguro Social (INSS) terá um reforço na análise dos atestados médicos enviados pela internet nos pedidos de benefício por incapacidade temporária, o antigo auxílio-doença.

    Uma inteligência artificial (IA) – desenvolvida pela Empresa de Tecnologia e Informações da Previdência Social (Dataprev) – está sendo testada na análise de possíveis tentativas de fraude com o Atestmed, sistema de análise documental que substitui a perícia médica.

    A ferramenta cruza dados cadastrais de médicos com os que aparecem nos atestados visando identificar inconsistências nas informações como o número de registro no Conselho Regional de Medicina (CRM), a especialidade, o local de trabalho e o IP do computador de envio do atestado, nome e assinatura do profissional.

    Irregularidades

    De acordo com nota divulgada pelo INSS, o desenvolvimento da IA foi motivado pela identificação de irregularidades em documentos protocolados no Atesmed, por meio do aplicativo Meu INSS, disponível para benefícios de até 180 dias. Segundo a instituição informou, já há, inclusive, uma investigação em andamento pela Polícia Federal.

    Em verificações manuais, com amostras dos processos, foram identificados, por exemplo, quatro padrões de letras diferentes no uso do mesmo carimbo que atesta a assinatura do médico. A ideia é que a nova ferramenta possa identificar essas inconsistências de forma mais sistemática e rápida.

    O presidente do INSS, Alessandro Stefanutto, informou que os testes no sistema da IA começaram nesta segunda-feira (16) e que a efetividade da ferramenta poderá ser analisada em breve. “Acredito que em 20 ou 30 dias já poderemos apresentar bons resultados”, finalizou.

  • Consulta pública avalia implementação de inteligência artificial nas Defensorias Públicas

    Consulta pública avalia implementação de inteligência artificial nas Defensorias Públicas

    As Defensorias Públicas dos Estados, do Distrito Federal e a Defensoria Pública da União abriram uma consulta pública sobre a estratégia de implantação de inteligência artificial (IA). A iniciativa visa desenvolver um processo transparente, participativo e colaborativo para a implementação de IA nas Defensorias de todo o país, buscando agilidade na adoção de sistemas que contribuam para a qualidade dos serviços prestados à população.

    A consulta, disponível no site Participa + Brasil até 22 de abril, representa um esforço conjunto do Conselho Nacional das Defensoras e Defensores Públicos-Gerais (Condege), com o apoio do Ministério da Justiça e Segurança Pública (MJSP), Controladoria-Geral da União (CGU) e Secretaria de Comunicação Social da Presidência da República (Secom).

    A defensora pública-geral de Mato Grosso, Luziane Castro, destaca a importância de incluir o público nesse processo de avanço tecnológico, reforçando a preocupação das Defensorias com o acolhimento da população vulnerável, que é sua razão de existir.

    “Sabemos que o avanço da área tecnológica tem sido cada vez mais intenso e necessário. Contudo, precisamos incluir o nosso público e essa consulta nos ajudará a dar o norte nesse processo de avanço da utilização de IA nas Defensorias Públicas de todo o país, reforçando a preocupação das Defensorias para o efetivo acolhimento da população vulnerável, que é a nossa razão de existir”, destacou Luziane.

    A consulta pública, aberta desde dezembro de 2023, visa coletar contribuições da sociedade para a formulação e execução de uma estratégia unificada de implementação de inteligência artificial. O rápido avanço das tecnologias de IA representa um desafio para as Defensorias Públicas, que desempenham um papel crucial na oferta de justiça à população socioeconomicamente vulnerável.

    Os temas abordados na consulta incluem os riscos enfrentados pela sociedade, soluções de IA na Defensoria Pública, desafios sistêmicos, aspectos técnicos, proteção de dados, transparência, segurança, participação social e colaboração com a comunidade técnico-científica. A consulta está aberta a defensores, servidores, organizações da sociedade civil, movimentos, coletivos, grupos de pesquisa, iniciativa privada e especialistas.

  • Inteligência artificial torna mais preciso o mapeamento da intensificação agrícola no Cerrado

    Inteligência artificial torna mais preciso o mapeamento da intensificação agrícola no Cerrado

    Metodologia pioneira, desenvolvida com suporte da Inteligência Artificial (IA), permitiu o alcance de um nível de acurácia de até 97%, quando aplicada em análises de imagens de satélite do Cerrado do município de Sorriso (MT), um dos principais produtores agrícolas do País. A acurácia é um aspecto relevante nos levantamentos realizados por meio de sensoriamento remoto. A ferramenta atribui maior precisão aos estudos, monitoramento e planejamento relacionados ao uso da terra e à prática da intensificação agrícola, e contribui para a tomada de decisão, nas esferas pública e privada, com base em informações geoespaciais qualificadas.

    A metodologia foi desenvolvida com algoritmos de classificação digital de imagens de satélites baseados em IA. Resulta do trabalho de pesquisadores da Embrapa, Universidade Estadual de Campinas (Unicamp), Instituto Nacional de Pesquisas Espaciais (Inpe) e Universidade Federal de Uberlândia (UFU),  publicado na revista International Journal of Geo-Information (IJGI), no número de julho de 2023, com acesso gratuito para o público em geral.

    “Os resultados demonstram a robustez da metodologia desenvolvida com foco na identificação de processos de dinâmica de uso da terra, como a intensificação agrícola”, avalia o pesquisador Édson Bolfe, da Embrapa Agricultura Digital, e coordenador do projeto Mapeamento agropecuário no Cerrado via combinação de imagens multisensores – MultiCER, financiado pela Fundação de Amparo à Pesquisa de São Paulo (Fapesp).

    Bolfe explica que, dentre os principais diferenciais da metodologia, está a geração de uma base de dados geoespaciais ampliada a partir de imagens harmonizadas dos satélites Landsat da Agência Aeroespacial dos Estados Unidos (NASA) e Sentinel-2 da Agência Espacial Europeia (ESA), denominada de HLS, e a utilização de algoritmos de classificação digital baseados em IA. A abordagem viabilizou o mapeamento dos cultivos agrícolas em três diferentes níveis hierárquicos, indicando áreas com uma, duas e até três safras no mesmo ano agrícola.

    A sucessão de safras de diferentes culturas agrícolas em uma mesma área e no mesmo calendário agrícola, visando aumentar a produção sem envolver a supressão de novas áreas nativas, é uma prática crescente no Brasil, e os seus mapeamento e monitoramento podem nortear tomadores de decisão em análises voltadas ao planejamento agroambiental, em especial.

    Agilidade e precisão, o papel do AgroTag

    Produtos de sensoriamento remoto e modelos de IA para classificação de imagens pixel-a-pixel têm demonstrado elevada confiabilidade no mapeamento agrícola, explica Bolfe. Com HLS é possível obter até duas imagens por semana nas mesmas regiões agrícolas de interesse.

    Um dos desafios da equipe de pesquisa está na obtenção de informações qualitativas e quantitativas de campo, que são fundamentais no sensoriamento remoto na agricultura. Para isso, os pesquisadores utilizaram o aplicativo AgroTag, desenvolvido pela  Embrapa Meio Ambiente para conferir agilidade e precisão ao mapeamento das principais culturas agrícolas em escalas regional e nacional.

    “Algoritmos baseados em IA dependem fortemente de uma quantidade massiva de dados de entrada para a realização dos chamados ‘treinamentos’. Esses últimos são processos nos quais dados amostrais de referência, ou verdades de campo, são utilizados para ensinar os algoritmos a identificar os alvos sob investigação em grandes áreas, nesse caso utilizando imagens de satélite, ou seja, mapeamento em larga escala”, comenta Luiz Eduardo Vicente, pesquisador da Embrapa Meio Ambiente, especialista em sensoriamento remoto e um dos coordenadores do projeto AgroTag.

    Nesse sentido, segundo Vicente, o uso do AgroTag foi fundamental, pois permitiu a coleta rápida e precisa de informações de campo, como o tipo de uso e cobertura da terra em cada ponto amostral, transferindo-as automaticamente para a nuvem de dados on-line, viabilizando seu uso nos referidos algoritmos.

    Em contraposição aos métodos de coleta tradicionais, o AgroTag representou, durante o projeto, um incremento de 25% a mais de áreas amostradas. “O projeto reafirma um dos motivos pelos quais o Agrotag foi criado”, destaca Vicente.

    Mapeamentos dinâmicos

    “O estudo mapeou a produção agrícola de 2021-2022 em Sorriso/MT, município escolhido por sua relevância econômica e agroambiental no contexto do Cerrado e do País”, destaca Edson Sano, pesquisador da Embrapa Cerrados e membro do projeto MultiCER.

    A maioria dos mapeamentos existentes não acompanha a evolução das práticas de intensificação agrícola “poupa-terra” – como a produção de até três safras na mesma área – ficando no nível da primeira safra. “Alguns levantamentos evoluíram para a identificação do número de safras plantadas, sem, no entanto, detectar as culturas específicas”, finaliza Sano.

    “Para produzir mapeamentos dinâmicos, detalhados e precisos, é necessário um grande volume de informações de ´verdade terrestre´, que são amostras rotuladas dos tipos de uso ou cobertura da terra, obtidas durante atividades de campo”, observa Taya Parreiras, doutoranda no Instituto de Geociências da Unicamp e membro do Projeto MultiCER.

    São necessárias ainda, de acordo com a pesquisadora, séries temporais regulares de imagens de satélite de alta resolução temporal e, nesse sentido, a harmonização de dados Landsat e Sentinel-2 é uma abordagem diferenciada. Taya Parreiras indica que, para lidar com a dimensão desses bancos de dados e informações, algoritmos de aprendizado de máquina, tais como Random Forest ou Extreme Gradient Boost, são fundamentais.

    “Como parte da IA, esses algoritmos são capazes de analisar e aprender padrões espectrais e texturais complexos a partir de conjuntos de dados agrícolas extensos e variados, permitindo a identificação precisa de diferentes tipos de culturas, condições do solo e variáveis ambientais”, argumenta.

    O Random Forest, ao criar várias árvores de decisão independentes e combiná-las, consegue produzir estimativas mais confiáveis.  O Extreme Gradient Boost também cria diversas árvores de decisão, mas com a vantagem de permitir que aquelas com baixo poder de predição sejam ajustadas. “Ambos os algoritmos são altamente escaláveis, o que lhes permite processar grandes volumes de dados rapidamente, contribuindo para a geração de mapas agrícolas detalhados e atualizados”, conclui.