Saiba o que estudar para o vestibular do Mackenzie!
As tecnologias emergentes têm o potencial de transformar a sociedade, com inovações que mudam a forma como as pessoas consomem, trabalham, estudam e interagem entre si.
Uma dessas inovações é a inteligência artificial (IA), que projeta comportamentos humanos em máquinas ou sistemas e é utilizada pelo Google para otimizar a experiência dos usuários. Mas uma recente polêmica foi lançada sobre a possibilidade de o sistema desenvolver consciência própria.
Conheça aqui como funciona esse “cérebro” artificial.
Navegar pela internet é incrível, mas gera preocupações nos usuários sobre a segurança dos dados pessoais e de navegação. Para quem usa a ferramenta para estudar ou trabalhar, há ainda a frustração de páginas e imagens não otimizadas ou que demoram para carregar.
Foi por essas e outras questões que a gigante da tecnologia passou a aplicar a inteligência artificial ao negócio, construindo soluções que favorecem a navegação dos usuários.
Segundo a empresa, a IA é usada para solucionar problemas e tornar as informações acessíveis, o que é realizado a partir dos seguintes princípios: benefício social, vieses justos, segurança, responsabilidade, design de privacidade, excelência científica e reavaliação constante.
Como a IA é uma área dinâmica e em constante desenvolvimento, a empresa disponibiliza revisões anuais dos princípios, buscando evitar o mau uso.
As funcionalidades são desenvolvidas para capturar padrões de comportamento, facilitando a atuação em diferentes atividades, como:
Para isso, a empresa desenvolve pesquisas para aprofundar o conhecimento e a aplicação da IA.
Leia também:
Realizar pesquisas na internet é como navegar por um universo infinito de dados escritos e falados. Para organizar e tornar essas informações acessíveis, o Google desenvolveu um sistema linguístico inteligente, o Language Model for Dialogue Applications (LaMDA).
A ferramenta otimiza pesquisas e mensagens, tornando a experiência digital muito mais rápida e simples, e uma das premissas é a testagem constante. Em uma das rodadas de testes, o engenheiro Blake Lemoine interagiu com a interface do LaMDA, e a polêmica se iniciou.
Segundo o engenheiro, a conversa com o LaMDA se aprofundou em temas religiosos, trabalhistas e, inclusive, ligados à robótica. Isso fez com que ele acreditasse que o cérebro artificial não seria tão artificial assim.
Porém, ao apresentar o relatório para a empresa, um time de especialistas em ética e tecnologia revisou o documento e concluiu que as evidências não sustentam as alegações feitas pelo engenheiro.
Na realidade, o que acontece é que o LaMDA gera termos de maneira espontânea e rápida, criando respostas capazes de reproduzir uma conversa que se assemelha às interações humanas, fazendo parecer que não há um robô por trás dessa dinâmica.
Por isso, os princípios de inteligência artificial do Google são frequentemente revisados e alinhados com a dinâmica social humana, em transformação contínua, buscando evitar conteúdos violentos ou que infringem os direitos humanos.
Fonte: Correio Braziliense, Google, Washington Post, Santo Digital