Youtube ganha novas ferramentas baseadas em inteligência artificial
O YouTube anunciou nesta quarta-feira (19) uma série de novidades que serão introduzidas na plataforma em 2024. Várias dessas funcionalidades são baseadas na tecnologia de inteligência artificial DeepMind da Google e têm como foco principal os criadores de conteúdo.
Além de curtir vídeos no YouTube, os usuários poderão agora também “Hypá-los”. O Hype é um novo botão que será colocado ao lado do botão “Curtir” e que impulsionará o vídeo para um ranking semanal cada vez que for pressionado. Isso pode ser útil para promover pequenos criadores que você gosta.
Novidades para criadores de conteúdo
O YouTube também permitirá que os criadores organizem seu conteúdo em temporadas e episódios, o que pode ser uma boa alternativa ou complemento às playlists. Além disso, a plataforma começará a reproduzir automaticamente vídeos de um canal quando você clicar nele, semelhante ao que acontece na Netflix.
O Youtube Studio não ficou de fora
O Community Hub no aplicativo YouTube Studio está sendo atualizado para permitir que os criadores respondam a comentários usando inteligência artificial. O sistema sugerirá respostas automáticas que os criadores podem escolher, tornando a interação com a audiência mais fácil e eficiente.
Para fortalecer ainda mais o relacionamento entre criadores e espectadores, o YouTube está introduzindo um novo espaço chamado Comunidades. Nesses espaços, criadores e seus assinantes podem compartilhar imagens, ideias e sugestões.
A aba “Inspiração” também está recebendo uma atualização baseada em inteligência artificial. Ela permitirá que os criadores desenvolvam ideias desde o início até a criação de um projeto completo, recebendo sugestões para títulos, thumbnails e roteiros.
A ferramenta Dream Screen, que permite adicionar fundos de vídeo ou imagem gerados por IA aos vídeos curtos também está sendo aprimorada, a nova versão, chamada Veo, tornará os fundos mais realistas e permitirá a criação de vídeos independentes que podem ser usados como cenas de transição ou abertura.
Com o avanço rápido da tecnologia, os chatbots estão se tornando uma presença cada vez mais comum na vida cotidiana, oferecendo desde suporte técnico até respostas para perguntas triviais.
No entanto, estamos em uma época onde a desinformação e as fake news se proliferam com uma velocidade alarmante, duas das maiores empresas de tecnologia do mundo, Google e Microsoft, tomaram uma decisão que está gerando polêmica e debates: seus chatbots de inteligência artificial, Gemini e Copilot, respectivamente, se recusam a discutir os resultados das eleições, incluindo a eleição presidencial dos Estados Unidos de 2020.
Com menos de seis meses para as próximas eleições presidenciais americanas, essa medida levantou muitas questões sobre o papel da tecnologia na disseminação de informações e sobre os limites da censura digital.
A decisão e seus motivos
A decisão de Google e Microsoft de programar seus chatbots para evitarem discussões sobre resultados eleitorais parece ser uma resposta direta ao ambiente altamente polarizado e à proliferação de desinformação política. Desde as eleições de 2016, as plataformas digitais têm sido acusadas de serem veículos para a disseminação de informações falsas, o que pode influenciar a opinião pública e afetar processos democráticos. A eleição de 2020 nos Estados Unidos, em particular, foi marcada por acusações infundadas de fraude eleitoral e por uma enxurrada de desinformação.
Ao impedir que Gemini e Copilot discutam quem ganhou a eleição de 2020, Google e Microsoft podem estar tentando evitar que suas plataformas sejam usadas para perpetuar teorias da conspiração e informações incorretas. Esta medida preventiva visa garantir que as informações fornecidas por suas inteligências artificiais não sejam mal utilizadas para fins de desinformação.
As implicações da neutralidade forçada
Créditos: Freepik
Embora a intenção por trás dessa decisão possa ser louvável, ela também levanta preocupações significativas. Uma das principais críticas é que, ao se recusarem a reconhecer um fato amplamente aceito – que Joe Biden venceu a eleição de 2020 – esses chatbots podem estar contribuindo para uma percepção de neutralidade forçada que não reflete a realidade. A verdade factual é essencial para a confiança pública, e a incapacidade dos chatbots de afirmar resultados eleitorais confirmados pode ser vista como uma falha em fornecer informações precisas.
Além disso, essa abordagem pode ser vista como uma forma de censura. Ao evitarem temas politicamente sensíveis, essas empresas de tecnologia podem estar limitando a liberdade de expressão e o direito do público de acessar informações relevantes e verificadas. A linha entre moderação de conteúdo para evitar desinformação e censura pode ser tênue, e a decisão de Google e Microsoft pode estar se aproximando perigosamente desta linha.
O Papel dos Chatbots na sociedade atual
Créditos: ChatGPT
Os chatbots de inteligência artificial, como Gemini e Copilot, estão se tornando ferramentas cada vez mais integradas na vida cotidiana, oferecendo assistência em uma variedade de tarefas, desde responder a perguntas triviais até fornecer suporte técnico. Com sua crescente influência, vem uma responsabilidade igualmente crescente para garantir que essas ferramentas sejam usadas de maneira ética e responsável.
A decisão de não discutir resultados eleitorais pode ser vista como uma tentativa de garantir que os chatbots não sejam usados para fins políticos ou para influenciar a opinião pública de maneira imprópria. No entanto, também destaca a necessidade de uma abordagem equilibrada, onde a precisão e a verdade não sejam sacrificadas em nome da neutralidade.
Desafios e soluções potenciais
Créditos: Resposta ao Covid / UN
Para equilibrar a necessidade de evitar desinformação com a obrigação de fornecer informações precisas, Google e Microsoft poderiam considerar a implementação de medidas adicionais, como a integração de fontes verificadas e confiáveis de informações em seus chatbots. Por exemplo, ao discutir temas politicamente sensíveis, os chatbots poderiam citar diretamente fontes oficiais, como a Comissão Federal de Eleições dos Estados Unidos ou outras organizações respeitadas de verificação de fatos.
Além disso, a transparência é crucial. As empresas de tecnologia precisam ser abertas sobre as razões por trás de suas decisões de moderação de conteúdo e sobre os algoritmos que governam suas inteligências artificiais. Isso pode ajudar a construir confiança com os usuários e a garantir que as decisões sejam vistas como justas e necessárias, em vez de arbitrárias ou censuradoras.
O Futuro da “moderação” de conteúdo
A situação atual com Gemini e Copilot é um exemplo claro dos desafios contínuos na moderação de conteúdo digital. À medida que as tecnologias de inteligência artificial continuam a evoluir e a se integrar mais profundamente em nossas vidas, será cada vez mais importante encontrar maneiras de equilibrar a necessidade de evitar a disseminação de desinformação com o direito do público a informações precisas e verificadas.
A abordagem de Google e Microsoft pode servir como um ponto de partida para uma discussão mais ampla sobre como as empresas de tecnologia devem lidar com informações politicamente sensíveis. Com a eleição presidencial de 2024 se aproximando rapidamente, as decisões que estas empresas tomarem agora terão um impacto duradouro sobre a forma como a informação é gerida e disseminada no futuro.
Conclusão
A recusa dos chatbots Gemini e Copilot em reconhecer a vitória de Joe Biden na eleição presidencial de 2020 é uma medida preventiva contra a desinformação, mas também levanta questões sobre censura e a disseminação de informações precisas. Encontrar um equilíbrio entre evitar a propagação de fake news e garantir a veracidade das informações será um desafio contínuo para Google, Microsoft e outras empresas de tecnologia, especialmente em um cenário político global cada vez mais polarizado.
Um grupo de funcionários e ex-funcionários de empresas de inteligência artificial (IA) de ponta publicou um manifesto pedindo mais proteção para denunciar riscos à segurança pública e ao bem-estar social. Entenda hoje, 05/06/2024.
No manifesto, os funcionários argumentam que as empresas de IA possuem informações substanciais não públicas sobre os riscos de seus sistemas, mas têm poucas obrigações de compartilhá-las com governos ou a sociedade civil. Eles também expressam preocupação com o fato de que acordos de confidencialidade os impedem de falar sobre esses riscos publicamente e que as proteções comuns para denunciantes são insuficientes.
Inteligência artificial fora de controle?
Créditos: Google Gemini
Especialistas em inteligência artificial (IA) de empresas como OpenAI e DeepMind soaram o alarme em uma carta aberta, expondo perigos da tecnologia e criticando a falta de transparência das empresas do ramo.
A carta, intitulada “O Direito de Alertar Sobre Inteligência Artificial Avançada”, critica a forma como as empresas lidam com a IA, principalmente em relação à transparência. Segundo os autores, as empresas só compartilham informações com seus funcionários, deixando governos, entidades e a sociedade no escuro.
Falta de controle e riscos à vista pedem medidas urgentes:
Créditos: Google DeepMind
Os especialistas argumentam que as empresas de IA têm incentivos financeiros para evitar a supervisão e que estruturas internas de governança não são suficientes para conter os riscos.
Para combater o problema, o grupo propõe quatro princípios que as empresas de IA devem seguir:
Sem mordaça: Proibição de acordos que silenciem críticas de funcionários.
Canal de denúncias seguro: Criação de um processo confiável e anônimo para alertas sobre riscos.
Cultura de crítica aberta: Incentivo à cultura de feedback e questionamentos.
Transparência radical: Permissão aos funcionários de relatar riscos à população, inclusive com compartilhamento de informações confidenciais como último recurso.
Um futuro incerto:
A carta expõe preocupações com o futuro da IA e o papel das empresas no desenvolvimento dessa tecnologia. Resta saber se as empresas atenderão ao chamado e tomarão medidas para garantir a segurança e a responsabilidade no uso da IA.
Segue a tradução da carta:
Somos funcionários atuais e antigos de empresas de fronteira em Inteligência Artificial (IA) e acreditamos no potencial da tecnologia IA para fornecer benefícios sem precedentes à humanidade.
Também compreendemos os graves riscos impostos por essas tecnologias. Esses riscos vão desde a maior consolidação das desigualdades existentes, até a manipulação e desinformação, à perda de controle de sistemas autônomos de IA podendo resultar em extinção humana.
As próprias empresas de IA reconheceram esses riscos [1, 2, 3], assim como governos em todo o mundo [4, 5, 6] e outros especialistas em IA [7, 8, 9]. (pontos condensados abaixo)
Esperamos que esses riscos possam ser adequadamente mitigados com orientação suficiente da comunidade científica, formuladores de políticas e o público. No entanto, as empresas de IA têm fortes incentivos financeiros para evitar supervisão efetiva, e não acreditamos que estruturas sob medida de governança corporativa sejam suficientes para mudar isso.
As empresas de IA possuem informações substanciais não públicas sobre as capacidades e limitações de seus sistemas, a adequação de suas medidas de proteção e os níveis de risco de diferentes tipos de danos.
No entanto, atualmente elas têm apenas obrigações fracas de compartilhar algumas dessas informações com governos e nenhuma com a sociedade civil. Não achamos que todas elas possam ser confiáveis para compartilhá-las voluntariamente.
Desde que não haja supervisão governamental efetiva dessas corporações, os funcionários atuais e antigos estão entre as poucas pessoas que podem responsabilizá-las perante o público.
No entanto, amplos acordos de confidencialidade nos impedem de expressar nossas preocupações, exceto para as próprias empresas que podem estar falhando em lidar com esses problemas. Proteções comuns para denunciantes são insuficientes porque se concentram em atividades ilegais, enquanto muitos dos riscos que nos preocupam ainda não são regulamentados.
Alguns de nós tememos razoavelmente várias formas de retaliação, dado o histórico de tais casos em todo o setor. Não somos os primeiros a encontrar ou falar sobre esses problemas. Portanto, pedimos às empresas de IA avançadas que se comprometam com estes princípios:
Que a empresa não celebre ou aplique nenhum acordo que proíba “difamação” ou crítica da empresa por questões relacionadas a riscos, nem tome represálias por críticas relacionadas a riscos, dificultando qualquer benefício econômico adquirido;
Que a empresa facilite um processo verificávelmente anônimo para que funcionários atuais e antigos levantem preocupações relacionadas a riscos ao conselho da empresa, aos reguladores e a uma organização independente apropriada com experiência relevante;
Que a empresa apoie uma cultura de crítica aberta e permita que seus funcionários atuais e antigos levantem preocupações relacionadas a riscos sobre suas tecnologias ao público, ao conselho da empresa, aos reguladores ou a uma organização independente apropriada com experiência relevante, desde que segredos comerciais e outros interesses de propriedade intelectual estejam protegidos adequadamente;
Que a empresa não tome represálias contra funcionários atuais e antigos que compartilhem publicamente informações confidenciais relacionadas a riscos após a falha de outros processos.
Aceitamos que qualquer esforço para relatar preocupações relacionadas a riscos deva evitar a liberação desnecessária de informações confidenciais. Portanto, uma vez que exista um processo adequado para levantar preocupações anonimamente ao conselho da empresa, aos reguladores e a uma organização independente apropriada com experiência relevante, aceitamos que as preocupações sejam inicialmente levantadas por meio desse processo.
No entanto, desde que tal processo não exista, os funcionários atuais e antigos devem manter sua liberdade de relatar suas preocupações ao público.
Assinado por:
Jacob Hilton, Ex-funcionário da OpenAI;
Daniel Kokotajlo, Ex-funcionário da OpenAI;
Ramana Kumar, Ex-funcionário da Google DeepMind;
Neel Nanda, Atual funcionário da Google DeepMind, Ex-funcionário da Anthropic;
William Saunders, Ex-funcionário da OpenAI;
Carroll Wainwright, Ex-funcionário da OpenAI;
Daniel Ziegler, Ex-funcionário da OpenAI;
Anônimo, Atual funcionário da OpenAI;
Anônimo, Atual funcionário da OpenAI;
Anônimo, Atual funcionário da OpenAI;
Anônimo, Atual funcionário da OpenAI;
Anônimo, Ex-funcionário da OpenAI;
Anônimo, Ex-funcionário da OpenAI;
Eis um resumo sobre os pontos citados como [1, 2, 3…]:
Empresas de IA: OpenAI, Anthropic e Google DeepMind reconhecem o potencial de “acidentes drásticos”, “desalinhamento” com objetivos humanos, e até mesmo ameaças existenciais representadas por uma IA superinteligente.
Governos: Tanto os EUA quanto o Reino Unido enfatizam os riscos de fraude, discriminação, desinformação, perda de empregos, concentração de poder e ameaças à segurança nacional.
Declaração de Bletchley (29 países): Representantes de nações expressam preocupação com o potencial de “danos graves, até mesmo catastróficos” em áreas como cibersegurança e biotecnologia.
Organizações sem fins lucrativos: Especialistas alertam para os perigos de vieses algorítmicos, desinformação, erosão da democracia e deslocamento de trabalhadores. O risco de extinção causado pela IA é comparado a ameaças globais como pandemias e guerra nuclear.
Este manifesto é um passo importante para iniciar uma conversa crucial sobre o futuro da IA.
Riscos da inteligência artificial: Uma análise abrangente
Créditos: ChatGPT
A inteligência artificial (IA) se tornou uma ferramenta poderosa com o potencial de transformar diversos aspectos da nossa sociedade. No entanto, ao lado dos benefícios promissores, surgem preocupações significativas sobre os riscos que essa tecnologia pode trazer. É crucial ter um entendimento abrangente desses riscos para que possamos desenvolver e utilizar a IA de forma responsável e ética.
1. Riscos à Segurança e ao Bem-Estar:
Armas Autônomas: A criação de armas autônomas que operam sem controle humano levanta sérias preocupações éticas e de segurança. A possibilidade de tais armas serem usadas acidentalmente ou intencionalmente de forma prejudicial representa um risco grave à vida humana e à estabilidade global.
Vigilância e Controle: O uso da IA em sistemas de vigilância e monitoramento pode levar à invasão da privacidade e à repressão de liberdades civis. A coleta e análise massiva de dados pessoais podem ser usadas para manipular comportamentos e controlar populações.
Desigualdade e Discriminação: Algoritmos de IA podem perpetuar e amplificar vieses existentes na sociedade, levando à discriminação contra grupos minoritários em áreas como emprego, acesso à moradia e crédito.
2. Riscos Econômicos e Sociais:
Perda de Empregos: A automação impulsionada pela IA pode levar à perda significativa de empregos em diversos setores, causando desemprego em massa e instabilidade social. É crucial desenvolver políticas para mitigar esses impactos e garantir a requalificação e reinserção dos trabalhadores afetados.
Desigualdade Econômica: A IA pode exacerbar a desigualdade econômica, concentrando riqueza e poder nas mãos de um pequeno número de indivíduos e empresas. É necessário garantir que os benefícios da IA sejam distribuídos de forma justa e equitativa.
Manipulação de Mercados: O uso de IA em mercados financeiros pode levar à manipulação de preços, fraudes e instabilidade econômica. É necessário desenvolver mecanismos de regulamentação e supervisão para garantir a transparência e a justiça nos mercados.
3. Riscos Existenciais:
Superinteligência: Alguns especialistas alertam para o risco de criar uma inteligência artificial superinteligente que supere a capacidade intelectual humana e possa representar uma ameaça à nossa existência. É crucial estabelecer salvaguardas e protocolos para garantir que a IA permaneça sob controle humano.
Impacto Ambiental: O desenvolvimento e uso da IA podem ter um impacto ambiental significativo, consumindo grandes quantidades de energia e gerando resíduos eletrônicos. É necessário desenvolver tecnologias de IA ambientalmente sustentáveis e minimizar seu impacto no planeta.
Os riscos da IA são complexos e multifacetados, exigindo uma análise profunda e um debate público abrangente. É fundamental abordar esses riscos de forma proativa e desenvolver medidas de mitigação adequadas para garantir que a IA seja utilizada de forma segura, ética e responsável, promovendo o bem-estar da humanidade e protegendo os valores democráticos e os direitos humanos.