Tag: LLM

  • TikTok: O Cliente gigante e polêmico na nuvem da Microsoft

    TikTok: O Cliente gigante e polêmico na nuvem da Microsoft

    A rede social TikTok emergiu como um dos principais clientes da divisão de computação em nuvem da Microsoft, impulsionada pela inteligência artificial. De acordo com informações recentes, a empresa chinesa desembolsava cerca de US$ 20 milhões mensais para acessar os modelos da OpenAI por meio da plataforma Azure, representando quase um quarto da receita dessa área em março deste ano.

    A parceria entre Microsoft e TikTok parecia ser um casamento lucrativo. A gigante de tecnologia americana projetava faturar US$ 1 bilhão anualmente com seus serviços de nuvem baseados em IA. No entanto, essa relação pode estar em um terreno instável.

    Indícios apontam que a ByteDance, empresa-mãe do TikTok, estaria desenvolvendo seu próprio modelo de linguagem de grande escala (LLM). Essa estratégia, considerada uma prática pouco ética no mundo da IA, além de violar os termos de serviço da OpenAI, coloca em risco a parceria com a Microsoft. A OpenAI chegou a suspender a conta da ByteDance para investigar possíveis irregularidades.

    A Microsoft, por sua vez, é um investidor bilionário da OpenAI e detém exclusividade na provisão de serviços de nuvem para a startup. A empresa também realizou investimentos significativos na construção de um supercomputador dedicado ao desenvolvimento de modelos de IA, como o ChatGPT.

    Apesar do desempenho robusto da Azure, com um crescimento de 29% na receita no último trimestre, a Microsoft sinalizou uma desaceleração para os próximos meses. A companhia atribui essa tendência a diversos fatores, mas a potencial redução da dependência do TikTok pode ser um elemento a ser considerado.

    O cenário revela uma complexa trama de interesses e desafios no mundo da inteligência artificial. A ascensão do TikTok como um grande consumidor de serviços de nuvem da Microsoft destaca a importância dessa tecnologia para empresas globais. Contudo, a busca pela independência tecnológica e as implicações éticas envolvidas na utilização de modelos de IA tornam o futuro dessa parceria incerto.

  • IAs devem cooperar em tarefas a partir de 2025

    IAs devem cooperar em tarefas a partir de 2025

    Os sistemas, conhecidos como multi-agent AI, envolvem um conjunto de IAs que colaboram para alcançar objetivos comuns de forma distribuída. De acordo com uma previsão da gigante de tecnologia Capgemini, agentes alimentados por inteligência artificial serão capazes de trabalhar em conjunto para resolver tarefas complexas já em 2025.

    Pascal Brier, diretor de inovação da Capgemini, afirmou em entrevista à CNBC que várias empresas já estão explorando essas tecnologias. Ele acredita que aplicações utilizando múltiplos agentes autônomos se tornarão realidade no próximo ano.

    A empresa define agentes de IA como tecnologias capazes de operar independentemente, planejar, refletir, perseguir metas de alto nível e executar fluxos de trabalho complexos com mínima supervisão humana. Essencialmente, são IAs que trabalham nos bastidores para completar tarefas em nosso lugar.

    O estado atual das IAs na indústria

    IAs devem cooperar em tarefas a partir de 2025

    sOs Estados Unidos estão à frente da Europa no desenvolvimento dessa tecnologia, segundo Brier. Um novo relatório da Capgemini, intitulado “Harnessing the Value of Generative AI”, revela que 82% das empresas pesquisadas planejam integrar agentes de IA em seus negócios nos próximos três anos. Apenas 7% não têm intenção de adotar essa tecnologia.

    O estudo analisou mais de 1.100 empresas com receita anual de pelo menos US$ 1 bilhão. Brier categoriza os agentes de IA em dois tipos: agentes individuais, que executam tarefas específicas, e tecnologia multi-agent, onde os agentes colaboram entre si.

    Por exemplo, um agente de IA focado em marketing, responsável por criar uma campanha publicitária para a Alemanha, poderia trabalhar autonomamente com um agente jurídico da mesma empresa para garantir a legalidade da campanha.

    Diferentemente dos sistemas de IA tradicionais, que apenas seguem instruções, esses agentes podem compreender, interpretar, adaptar-se e agir de forma independente, sendo capazes de substituir humanos em determinadas tarefas, segundo a Capgemini.

    A primeira grande onda de IA, em 2022, focou no entendimento de prompts e modelos de linguagem de grande escala (LLMs), de acordo com Brier. Agora, a tendência é construir motores de conhecimento, utilizando IA generativa para interagir com esses motores e empregando agentes como substitutos ou copilotos para encontrar e realizar tarefas.

    A expectativa é que os agentes de IA facilitem a automação em 71% das organizações e aliviem a carga de trabalho humano em tarefas repetitivas em 64% das empresas, permitindo que os funcionários se concentrem em atividades de maior valor agregado, como experiência do cliente.

    Os desafios

    IAs devem cooperar em tarefas a partir de 2025

    No entanto, a adoção de IA generativa ainda apresenta disparidades. Enquanto grandes empresas já estão integrando essa tecnologia em várias áreas, pequenas empresas estão em estágios iniciais. A pesquisa da Capgemini mostrou que 10% das empresas com receita entre US$ 1 bilhão e US$ 5 bilhões estão implementando IA generativa, enquanto esse número salta para 49% nas empresas com receita acima de US$ 20 bilhões.

    Os setores também apresentam diferenças. O setor aeroespacial e de defesa lidera em investimento em IA generativa, com 88% das organizações adotando a tecnologia, enquanto o varejo fica em 66%.