Tag: #Tecnologia

  • Maior drone agrícola do mundo será testado em Mato Grosso

    Maior drone agrícola do mundo será testado em Mato Grosso

    Uma startup inovadora está prestes a testar o maior drone agrícola de pulverização do mundo numa fazenda produtora de grãos em Mato Grosso. O drone, com capacidade para transportar 400 quilos de defensivos, opera de forma autônoma utilizando tecnologias de Inteligência Artificial (IA) e Internet das Coisas (IoT). Os testes estão previstos para começar em agosto.

    Inspirado no design do avião de reconhecimento militar americano Black Bird, o drone Harpia P-71, desenvolvido pela Psyche Aerospace, representa um marco na tecnologia agrícola. O maior drone pulverizador já visto no Brasil, antes do Harpia P-71, tinha capacidade para apenas 60 quilos.

    Fundada em dezembro de 2022 no Parque de Inovação Tecnológica de São José dos Campos (SP), a Psyche Aerospace agora opera em uma área de 6 mil m² na zona sul da cidade. O Harpia P-71 é equipado com um motor híbrido de etanol e baterias, capaz de pulverizar 40 hectares por hora e com autonomia de voo de 10 horas.

    O drone foi exibido no Vision Tech Summit-Agro em Ribeirão Preto no início do mês. Totalmente desenvolvido no Brasil, o Harpia P-71 se reabastece de forma autônoma através do equipamento Beluga, também criado pela Psyche. A empresa foi fundada e é dirigida por Gabriel Pereira Leal, um jovem de 23 anos, autodidata e sem formação universitária.

    Leal, cuja família tem raízes no setor agropecuário da Bahia, explica que o drone foi criado com o objetivo de atender grandes propriedades agrícolas onde a pulverização com tratores ou aviões é ineficiente ou custosa. Seis protótipos do Harpia-P71 já foram construídos. O drone, feito de fibra de vidro e fibra de carbono, mede 4,5 metros de comprimento e 8 metros de envergadura, decolando com 780 quilos. O primeiro voo oficial aconteceu em março em São José dos Campos, coordenado pelo engenheiro aeroespacial Gabriel de Paula.

    A Psyche não pretende vender o drone, mas sim oferecer serviços de pulverização aos produtores. O processo inclui mapear a área, definir as linhas de pulverização, altitude, vazão, velocidade e angulação. Uma frota do Harpia P-71 será enviada para pulverizar lavouras, inicialmente focando em cana-de-açúcar, citros e grãos, com um custo de R$ 20 por hectare por aplicação. Leal destaca que a operação do drone requer alta capacitação, garantindo ao produtor apenas a necessidade de solicitar o serviço e acompanhar tudo via aplicativo.

    Com pré-contratos anuais já firmados com produtores de grãos no Centro-Oeste e fazendeiros de cana em São Paulo, o Harpia P-71 deverá começar a operar comercialmente até o final do ano, após a validação dos testes em Mato Grosso. A empresa também espera atender cooperativas agropecuárias, beneficiando médios e pequenos produtores em uma segunda fase.

    Em uma simulação de pulverização de 1.000 hectares, a frota de seis drones autônomos realiza o trabalho em cinco horas, em contraste com os quatro a cinco dias necessários para um trator, um ou dois dias para um avião, e 15 a 17 dias para um drone manual.

    A Psyche, totalmente financiada por capital privado e avaliada em R$ 75 milhões, foi iniciada com recursos próprios de Leal. A empresa captou R$ 2 milhões de Éder Medeiros em um aporte pré-seed e recebeu mais R$ 15 milhões de um investidor anônimo do Rio Grande do Sul em junho deste ano. Com uma fábrica em São José dos Campos que emprega 60 pessoas, a startup planeja contratar mais 40 funcionários para aumentar a produção para três drones por dia.

  • Neuralink dá superpoderes em videogames… Mas a que custo?

    Neuralink dá superpoderes em videogames… Mas a que custo?

    Noland Arbaugh, de 29 anos, tornou-se a primeira pessoa a receber um chip cerebral implantável da Neuralink, empresa de Elon Musk. Após um acidente de mergulho há oito anos que lhe retirou o controle dos membros, Arbaugh recuperou a capacidade de mover o cursor do computador apenas com a mente, graças ao dispositivo do tamanho de uma pilha implantado em seu crânio.

    A tecnologia, embora promissora para devolver autonomia a pessoas com deficiências motoras, ainda está em fase inicial. Arbaugh relatou em entrevista ao podcast de Joe Rogan que o implante também trouxe um efeito colateral inesperado: habilidades aprimoradas para videogames.

    “É basicamente como ter um aimbot na minha cabeça”, brincou Arbaugh, referindo-se a programas ilegais que facilitam a pontaria nos jogos. “Provavelmente precisarão criar ligas separadas para pessoas como eu, porque não é justo para os outros jogadores.”

    De acordo com Arbaugh, a resposta do cérebro ao implante é tão rápida que ultrapassa a própria consciência. “Às vezes, o cursor se move antes mesmo de eu pensar em movê-lo. É como se o sinal do cérebro fosse enviado antes da ação física.”

    Embora jogos de ação como Call of Duty ainda estejam fora de alcance, Arbaugh já domina títulos de estratégia como Civilization VI e corrida como Mario Kart. “Acredito que, em alguns anos, poderei jogar qualquer coisa que os outros jogam”, afirmou com otimismo, revelando ainda o sonho de um dia poder curtir o clássico Halo.

    As pedras no caminho da Neuralink

    Neuralink dá superpoderes em videogames... Mas a que custo?

    Apesar dos benefícios no mundo dos games, o caminho não tem sido livre de obstáculos. No início do ano, Arbaugh relatou perda de controle do cursor. A Neuralink descobriu que alguns dos filamentos inseridos em seu cérebro estavam se retraindo, possivelmente devido à presença de ar no crânio após a cirurgia.

    Para solucionar o problema e aprimorar a interface entre o cérebro e o computador, a empresa planeja implantar os filamentos, mais finos que um fio de cabelo, de forma mais profunda no cérebro do próximo paciente, conforme divulgado pelo Wall Street Journal.

    Além dos benefícios e desafios técnicos, Arbaugh também comentou sobre as preocupações de segurança. “As pessoas sempre me perguntam se é possível hackear o implante. A resposta curta é sim”, revelou. “Mas, no momento, isso não teria grandes consequências. No máximo, alguém poderia controlar o cursor na tela e me fazer ver coisas estranhas.”

    O caso de Arbaugh demonstra o enorme potencial da tecnologia Neuralink para auxiliar pessoas com deficiências, mas também levanta questões éticas e de segurança cibernética que precisam ser debatidas à medida que a tecnologia avança.

  • Meta: Novidade promete revolucionar a experiência dos headsets Quest

    Meta: Novidade promete revolucionar a experiência dos headsets Quest

    Em um movimento que pode levar o Quest 3 para mais perto do concorrente Apple Vision Pro, a Meta está testando um recurso que permite posicionamento livre de janelas virtuais em seus headsets. A novidade, por enquanto, está disponível apenas para participantes do programa de testes beta, mas promete revolucionar a experiência de computação espacial para usuários do Quest.

    Atualmente, o sistema operacional Meta Horizon OS (anteriormente Meta Quest OS) permite multitarefa com até três janelas virtuais fixas lado a lado. O recurso testado, no entanto, oferece maior liberdade, como demonstrado em vídeo por um minerador de dados chamado Luna.

    De acordo com o vídeo, é possível mover livremente até três janelas de aplicativos 2D, como o navegador ou janelas do sistema como biblioteca e configurações, pelo ambiente virtual. Outras três janelas podem permanecer fixas.

    Limitações iniciais sugerem que a posição das janelas seja lembrada apenas dentro de uma certa distância, retornando ao padrão caso o usuário mude de orientação ou reinicie a visualização. Ainda não há confirmação oficial sobre todas as restrições, mas o recurso demonstra potencial.

    A atualização também permite alternar entre janelas curvas e planas, além de um recurso que diminui o brilho dos ambientes virtuais ao usar aplicativos 2D (ainda não disponível no modo de passagem).

    Vale destacar que o Apple Vision Pro oferece um nível superior de liberdade. Nele, as janelas podem ser posicionadas em qualquer lugar do ambiente real e permanecem fixas mesmo com a movimentação do usuário, permitindo a criação de um verdadeiro espaço de trabalho virtual.

    Com a ênfase recente em anúncios que destacam o potencial de produtividade do Quest 3, a Meta parece estar investindo em tornar seu headset uma ferramenta multifuncional. Mesmo que a experiência não seja idêntica ao Vision Pro, de custo bem mais elevado, o novo recurso demonstra a evolução da plataforma para atender a diferentes necessidades.

  • Meta planeja usar dados de usuários para treinar IA, mas enfrenta questionamentos

    Meta planeja usar dados de usuários para treinar IA, mas enfrenta questionamentos

    A Meta, dona do Facebook e Instagram, planeja utilizar publicações dos usuários para treinar seus modelos de inteligência artificial (IA). A iniciativa, porém, enfrenta entraves legais na Europa, onde a companhia precisa lidar com regras mais rígidas de proteção de dados.

    Inicialmente programado para começar hoje, o treinamento da IA foi adiado após a Comissão Irlandesa de Proteção de Dados (DPC) intervir com 11 ações judiciais. Stefano Fratta, diretor global de engajamento de políticas de privacidade da Meta, classificou a decisão como “desapontadora”.

    A empresa argumenta que sua abordagem é transparente e oferece mais controle aos usuários do que a adotada por concorrentes como Google e OpenAI, que já treinam seus modelos com dados europeus. No entanto, o grupo de direitos digitais Noyb contesta essa afirmação, alegando que a Meta “ignora o direito fundamental à proteção de dados e privacidade dos usuários europeus”.

    Para usuários da União Europeia e do Reino Unido, amparados por leis de proteção de dados mais rígidas, haverá a possibilidade de se oporem ao uso de seus dados. A Meta notificará os usuários novamente antes de implementar as mudanças e disponibilizará um formulário para registro de objeção. O aceite do pedido, no entanto, não é garantido.

    Já para usuários fora desses países, não há opção de opt-out. O adiamento também afetou o lançamento do Meta AI na Europa. “Sem incluir informações locais, só poderíamos oferecer às pessoas [na Europa] uma experiência de segunda categoria”, explicou Fratta. “Isso significa que não podemos lançar o Meta AI na Europa no momento”.

    A Meta afirma que continuará trabalhando com a DPC para que os usuários europeus tenham acesso ao mesmo nível de inovação em IA que o resto do mundo.

    A iniciativa, que já enfrenta entraves legais na Europa, também levanta questionamentos no Brasil, onde a Lei Geral de Proteção de Dados Pessoais (LGPD) entrou em vigor em 2020.

    Pontos a serem ponderados no Brasil:

    Meta planeja usar dados de usuários para treinar IA, mas enfrenta questionamentos

    1. Adequação à LGPD:

    • A LGPD garante aos brasileiros o direito à transparência sobre como seus dados são coletados e utilizados. A Meta precisará detalhar claramente como as publicações dos usuários serão utilizadas para treinar a IA, demonstrando que a iniciativa está em conformidade com os princípios da LGPD, como a finalidade específica, adequação e necessidade, além da segurança e não discriminação.
    • A empresa também deve obter o consentimento livre e expresso dos usuários antes de utilizar seus dados para treinar a IA. Esse consentimento deve ser claro, específico e informado, permitindo que os usuários compreendam as implicações do compartilhamento de seus dados.

    2. Impacto na privacidade dos usuários:

    • A utilização de dados pessoais para treinar a IA levanta preocupações sobre a privacidade dos usuários. É importante que a Meta implemente medidas robustas para proteger os dados dos usuários, como a anonimização e a pseudonimização, e que limite a coleta e o uso de dados ao mínimo necessário para o treinamento da IA.
    • A empresa também deve ser transparente sobre os algoritmos utilizados para treinar a IA e como eles podem afetar os resultados. É fundamental que esses algoritmos sejam justos, imparciais e não discriminatórios, evitando vieses que possam prejudicar determinados grupos de usuários.

    3. Participação da sociedade civil:

    • É fundamental que a sociedade civil brasileira esteja envolvida na discussão sobre o uso de dados de usuários para treinar a IA. A Meta deve realizar consultas públicas e debates com especialistas e representantes da sociedade para garantir que suas práticas estejam alinhadas com os valores e expectativas da população brasileira.
    • O Congresso Nacional e outras entidades relevantes também devem debater a questão e propor medidas para garantir a proteção dos dados dos usuários e a promoção da inovação responsável em IA.

    4. Oportunidades para o Brasil:

    • O Brasil tem um grande potencial para se tornar um polo de desenvolvimento de IA. A Meta, com sua expertise em dados e tecnologia, pode contribuir para o desenvolvimento da IA no país, desde que suas práticas estejam em conformidade com a LGPD e com os princípios éticos da IA.
    • A empresa pode colaborar com universidades, centros de pesquisa e empresas brasileiras para desenvolver soluções inovadoras em IA que atendam às necessidades do país.

    5. Ações dos usuários:

    • Os usuários brasileiros devem se informar sobre como seus dados estão sendo utilizados pelas plataformas online e tomar medidas para proteger sua privacidade.
    • É importante ler atentamente os termos de uso e políticas de privacidade das plataformas e utilizar as ferramentas disponíveis para controlar o compartilhamento de dados.
    • Os usuários também podem optar por não compartilhar publicações que considerem sensíveis ou privadas.

    A utilização de dados de usuários para treinar a IA é um tema complexo que levanta questões importantes sobre privacidade, ética e inovação. No Brasil, a LGPD oferece um marco legal para garantir a proteção dos dados dos usuários, mas é fundamental que a sociedade civil, o governo e as empresas trabalhem em conjunto para garantir que a IA seja desenvolvida e utilizada de forma responsável e ética.

  • Apple planeja substituir metade dos funcionários de montagem por máquinas

    Apple planeja substituir metade dos funcionários de montagem por máquinas

    A Apple está investindo pesado na automação da linha de produção do iPhone, com a meta de reduzir pela metade o número de trabalhadores na montagem final nos próximos anos. Essa informação foi revelada em reportagem do The Information, que cita fontes ligadas à empresa.

    Segundo o veículo, a decisão teria sido tomada após confrontos violentos entre operários e policiais na principal fábrica da Foxconn, parceira de produção da Apple, em novembro de . A reportagem indica que a companhia retomou projetos de automação anteriormente suspensos devido aos altos custos iniciais.

    A automação industrial exige investimentos milionários. A Apple teria pressionado seus parceiros para arcar com parte desses custos, obtendo resultados variados. Dados do próprio relatório anual da Apple sobre a cadeia de fornecedores apontam uma queda de 200 mil funcionários monitorados em relação a 2022.

    O iPhone 15, lançado recentemente, já conta com um “grau significativo de automação” na montagem final, segundo o The Information. A liderança desse processo está a cargo de Peter Thompson, vice-presidente de operações da Apple.

    Veja também: Funcionários de gigantes da IA alertam sobre perigos da tecnologia em carta aberta

    A equipe de Thompson vem trabalhando em estreita colaboração com parceiros como Foxconn, Luxshare Precision e Pegatron para automatizar etapas da produção. Exemplos citados na reportagem incluem máquinas que instalam suportes metálicos e circuitos impressos flexíveis sem intervenção humana.

    Essas iniciativas já teriam resultado em milhares de demissões nas fábricas chinesas, com reduções de mão de obra chegando a 30% em alguns processos, de acordo com fontes ligadas à cadeia de suprimentos da Apple.

    A reportagem menciona ainda duas aquisições estratégicas da Apple para auxiliar na automação: a DarwinAI e a Drishti, especializada em análise de vídeo de linhas de montagem para identificação de gargalos e problemas de produção em tempo real.

    Apesar de contratempos como a tentativa frustrada de automatizar a instalação de botões no iPhone 16 devido a uma alta taxa de defeitos, a Apple segue firme em seu objetivo de reduzir pela metade o número de trabalhadores na montagem final do iPhone.

  • IA do Google consome 7 cargas de carros elétricos por segundo

    IA do Google consome 7 cargas de carros elétricos por segundo

    O novo recurso de “Visão Geral por IA” do Google, que fornece resultados de pesquisa gerados por inteligência artificial, está levantando preocupações sobre o consumo de energia. Um estudo recente indica que uma única pesquisa por IA consome cerca de dez vezes mais energia do que uma pesquisa tradicional.

    De acordo com a empresa de pesquisa Digiconomist, se todos os resultados do Google fossem gerados por IA, o consumo de energia poderia se aproximar do de toda a Irlanda. Embora cada pesquisa individual utilize apenas 3 watts-hora, o que equivale a uma lâmpada LED acesa por uma hora, o número alarmante surge quando consideramos a escala.

    O Google processa, em média, 98.379 pesquisas por segundo, totalizando 8,5 bilhões de buscas diárias em 2023. Traduzindo esse volume para consumo de energia em pesquisas por IA, teríamos um gasto de 295,14 quilowatts-hora por segundo.

    Para colocar isso em perspectiva, a bateria de um veículo elétrico médio vendido em 2023 carrega 40 kWh. Isso significa que a energia usada pelo Google para uma única pesquisa por IA em um segundo poderia carregar cerca de sete carros elétricos.

    Extrapolando esse consumo, chegamos a números ainda mais impressionantes: 442 cargas de carros elétricos por minuto, 26.562 por hora e 637.500 por dia. E vale ressaltar que esses dados consideram apenas o gasto energético do Google com as pesquisas por IA.

    A alta demanda energética dos modelos de linguagem grande e da própria IA, utilizados para diversas finalidades, gera preocupações ambientais. O alto consumo contrasta com os esforços individuais para reduzir o uso de energia, como o uso de ar-condicionado de forma controlada, transporte alternativo e eletrodomésticos eficientes.

    É preciso questionar se o benefício dos resultados por IA justifica o alto custo energético. Será necessário encontrar soluções para tornar a IA mais sustentável, caso contrário, poderemos estar trocando um problema por outro.

  • Atraso no lançamento do assistente de voz do ChatGPT levanta questões de segurança

    Atraso no lançamento do assistente de voz do ChatGPT levanta questões de segurança

    A OpenAI, empresa de inteligência artificial (IA), adiou o lançamento de novos recursos de voz para o ChatGPT. Inicialmente previsto para este mês, o lançamento amplo deve acontecer apenas no outono (do hemisfério norte).

    O motivo do atraso, anunciado na terça-feira pela OpenAI, é a necessidade de mais testes de segurança para as funcionalidades de voz e leitura de emoções.

    Esses recursos causaram agitação entre usuários do ChatGPT quando demonstrados pela empresa no mês passado. No entanto, a empolgação também gerou polêmica: a atriz Scarlett Johansson chegou a ameaçar a OpenAI com um processo judicial, alegando que sua voz foi copiada para uma das personas de inteligência artificial da companhia.

    Inicialmente, a OpenAI planejava oferecer os novos recursos para alguns assinantes pagantes no final de junho. Agora, esse lançamento inicial será adiado em um mês. A versão final, disponível para todos os usuários pagos, chegará no outono, ressalta a empresa em comunicado. No entanto, a OpenAI frisa que “o cronograma exato depende do cumprimento de nossos rigorosos padrões de segurança e confiabilidade”.

    No final do ano passado, a OpenAI introduziu a capacidade do ChatGPT de falar com diversas vozes sintéticas, chamadas de “personas”. A demonstração de maio utilizou uma dessas vozes para apresentar o GPT-4o, um sistema de IA mais avançado. Com o GPT-4o, o chatbot falava em tons expressivos, respondia ao tom de voz e expressões faciais do interlocutor e conduzia conversas mais complexas. Uma das vozes, chamada Sky pela OpenAI, lembra a voz de uma assistente virtual interpretada por Johansson no filme “Her” (2013), que conta a história de um homem solitário que se apaixona por sua IA.

    O CEO da OpenAI, Sam Altman, negou que a empresa tenha treinado o chatbot usando a voz de Johansson. Segundo o Washington Post, reportagens do mês passado baseadas em registros internos e entrevistas com diretores de elenco e o agente da atriz, a OpenAI contratou outro ator para fornecer o áudio de treinamento.

  • Golpes decolam na internet: Você está seguro? Descubra como se proteger já!

    Golpes decolam na internet: Você está seguro? Descubra como se proteger já!

    O mundo digital se tornou um terreno fértil para golpes cada vez mais elaborados e perigosos. Segundo o Better Business Bureau (BBB), em 2023, mais de 68% das fraudes relatadas aconteceram online, um aumento significativo em relação ao ano anterior.

    “No BBB, observamos novos golpes online a cada poucos meses”, afirma Cameron Nakashima, representante da organização. “Pode ser um golpe totalmente novo ou uma variação de um já conhecido.”

    Redes sociais: A casa do drop sem shipping

    Golpes online disparam na internet: saiba como se proteger

    As plataformas de mídia social se tornaram um dos principais canais para a disseminação de golpes. Em 2023, o número de golpes relatados nas redes sociais disparou 63,8%.

    “Esses golpes geralmente se baseiam em personificação”, explica Nakashima. “Os criminosos se passam por outras pessoas ou por empresas legítimas para enganar suas vítimas.”

    Jovens são os alvos mais visados

    Golpes online disparam na internet: saiba como se proteger

    Pela segunda vez consecutiva, o grupo etário de 18 a 24 anos registrou a maior mediana de perda financeira por golpe. Essa faixa etária tende a passar mais tempo online, o que aumenta a chance de contato com golpes e, consequentemente, o risco de sofrer perdas financeiras.

    Criptomoedas na mira dos golpistas

    Golpes online disparam na internet: saiba como se proteger

    Golpes envolvendo criptomoedas estão em alta. Nesses casos, os criminosos geralmente criam perfis falsos online para se passar por especialistas ou investidores em criptomoedas e atrair suas vítimas.

    Empregos e perfis falsos: outras táticas comuns

    Golpes online disparam na internet: saiba como se proteger

    Golpes de emprego e outros tipos de fraudes por personificação também são bastante frequentes. Os golpistas criam perfis falsos em sites de empregos ou redes sociais para atrair candidatos e, em seguida, roubar seus dados pessoais ou dinheiro.

    Como se proteger:

    • Esteja atento: Desconfie de ofertas ou solicitações que parecem boas demais para ser verdade.
    • Verifique a fonte: Antes de clicar em links ou fornecer informações pessoais, verifique a autenticidade do site ou da pessoa com quem você está interagindo.
    • Proteja seus dados: Nunca compartilhe senhas, dados bancários ou outras informações confidenciais online.
    • Mantenha o software atualizado: Mantenha seu antivírus e outros softwares de segurança atualizados para se proteger contra malwares e outras ameaças online.
    • Denuncie: Se você for vítima de um golpe, denuncie às autoridades competentes.

    Lembre-se: a internet é um ambiente cheio de oportunidades, mas também de riscos. Ao se manter informado e tomar medidas de precaução, você pode se proteger contra golpes online e navegar na web com mais segurança.

  • Gemini: IA do Google chega ao Gmail para ajudar na redação e resumo de e-mails

    Gemini: IA do Google chega ao Gmail para ajudar na redação e resumo de e-mails

    O Google está implementando um novo painel lateral com inteligência artificial (IA) chamado Gemini no Gmail para auxiliar na escrita e resumo de e-mails. A novidade se soma à integração do Gemini no Docs, Sheets, Slides e Drive. O lançamento ocorre pouco depois do anúncio feito pela empresa na conferência I/O para desenvolvedores, realizada no mês passado, que teve forte foco em novas soluções de IA da gigante da tecnologia.

    Com a nova integração, o usuário pode utilizar o Gemini no Gmail para receber sugestões de respostas ou auxílio na elaboração de um e-mail. Além disso, é possível fazer perguntas e encontrar informações específicas dentro de sua caixa de entrada ou arquivos do Google Drive.

    O Google ressalta que, embora o Gemini no Gmail forneça prompts para iniciar suas consultas, você também pode fazer suas próprias perguntas. Por exemplo: “Qual era o número de pedido para a minha agência?” ou “Quanto a empresa gastou no último evento de marketing?”.

    Vale ressaltar que esses recursos estão disponíveis apenas para assinantes do Google Workspace com complementos Gemini Business ou Enterprise, Gemini Education ou Education Premium, ou assinatura do Google One AI Premium.

    No Docs, o painel lateral Gemini auxilia na escrita e refinamento do conteúdo, resume informações e ajuda no brainstorming de ideias. Também é possível criar conteúdo com base em outros arquivos. No Slides, o Gemini gera novos slides e imagens personalizadas, além de resumir apresentações.

    Já no Sheets, o painel Gemini auxilia no rastreamento e organização de dados, possibilitando a criação de tabelas, fórmulas e recebendo ajuda para a realização de determinadas tarefas. No Drive, o painel Gemini resume documentos e fornece informações rápidas sobre um projeto.

    Assim como no Gmail, para acessar os recursos do Gemini em Docs, Slides, Sheets e Drive, é necessário ser um usuário pago.

    O Google é a mais recente gigante da tecnologia a adicionar recursos de IA generativa aos seus aplicativos e serviços populares do dia a dia. No início deste ano, a Meta trouxe seu chatbot de IA para o Instagram e WhatsApp, enquanto a Apple anunciou recentemente a adição de recursos de IA generativa em seus aplicativos e serviços, incluindo Siri, Messages, Mail e Notes.

    A tendência recente de inserir IA em produtos cotidianos pode não ser bem recebida por todos. Embora haja entusiasmo em torno dos próximos recursos de IA da Apple, houve resistência quando o Meta adicionou seu chatbot de IA à pesquisa no Instagram. Até agora, usuários sem interesse em ferramentas de IA generativa, como o ChatGPT da OpenAI, podiam evitá-las em grande parte. No entanto, à medida que as gigantes da tecnologia continuam adicionando IA a seus aplicativos e serviços diários, a IA generativa se tornará mais difícil de ignorar.

  • Reddit: Plataforma reforça regras para se proteger de IAs desconhecidas

    Reddit: Plataforma reforça regras para se proteger de IAs desconhecidas

    O Reddit anunciou na terça-feira (25) que atualizará seu arquivo robots.txt, protocolo utilizado para informar robôs automatizados da web se eles têm permissão para navegar em um site.

    Tradicionalmente, o robots.txt servia para permitir que mecanismos de busca indexassem o conteúdo e direcionassem tráfego para o site. No entanto, com o avanço da inteligência artificial (IA), sites estão sendo varridos por crawlers (rastreadores) para treinar modelos de IA sem o devido reconhecimento da fonte do conteúdo.

    O que são crawlers?

    Crawlers, também conhecidos como spiders (aranhas) ou bots de rastreador, são programas automatizados que navegam pela web de forma sistemática. Imagine um software que acessa sites, lê o conteúdo e segue links para outras páginas, assim como faria uma pessoa navegando na internet.

    Existem crawlers usados para boas finalidades, como os crawlers de buscadores como o Google. Eles visitam sites, analisam o conteúdo e indexam as informações para que sejam exibidas nos resultados de pesquisa.

    No entanto, crawlers também podem ser usados de forma maliciosa. É o caso do que aconteceu com a plataforma de busca Perplexity, citada nesse artigo. Esse tipo de crawler ignora as restrições impostas por sites (como o robots.txt) e copia indevidamente o conteúdo para treinar modelos de inteligência artificial sem autorização.

    Além da atualização do robots.txt, o Reddit continuará limitando a taxa de acesso e bloqueando bots desconhecidos. A empresa afirmou que bots e crawlers que não seguirem a Política de Conteúdo Público do Reddit e não possuírem um acordo com a plataforma sofrerão restrições ou bloqueios.

    O Reddit afirma que a atualização não deve afetar a maioria dos usuários ou agentes de boa-fé, como pesquisadores e organizações como o Internet Archive. Em vez disso, a medida visa impedir empresas de IA de treinar seus modelos de linguagem em conteúdo do Reddit. É claro, crawlers de IA podem ignorar o robots.txt.

    Veja mais: Funcionários de gigantes da IA alertam sobre perigos da tecnologia em carta aberta.

    O anúncio ocorre poucos dias após uma investigação da Wired revelar que a startup de busca baseada em IA, Perplexity, estava roubando e copiando conteúdo indevidamente. A Wired descobriu que a Perplexity parece ignorar solicitações para não rastrear seu site, mesmo com o bloqueio no robots.txt. O CEO da Perplexity, Aravind Srinivas, respondeu às acusações afirmando que o robots.txt não possui força legal.

    Pague ou desista, a solução do Reddit

    As mudanças do Reddit não afetarão empresas com acordos firmados. Por exemplo, o Reddit possui um contrato de US$ 60 milhões com o Google que permite à gigante das buscas treinar seus modelos de IA no conteúdo da plataforma. Com essas alterações, o Reddit sinaliza a outras empresas interessadas em utilizar dados do Reddit para treinamento de IA que será necessário firmar um acordo financeiro.

    “Qualquer pessoa que acesse o conteúdo do Reddit deve cumprir nossas políticas, incluindo aquelas implementadas para proteger os usuários”, afirmou o Reddit em um post no blog. “Somos seletivos em relação a quem concedemos acesso em larga escala ao conteúdo do Reddit e em quem confiamos.”