Tópicos | bot

Vários veículos de comunicação decidiram bloquear a ferramenta de rastreamento de páginas na internet usada pela OpenAI, empresa criadora do ChatGPT, que busca melhorar seus modelos de inteligência artificial.

The New York Times, CNN, a emissora australiana ABC e as agências de notícias Reuters e Bloomberg bloquearam o acesso ao GPTBot, rastreador de páginas na internet lançado em 8 de agosto.

##RECOMENDA##

A medida também foi adotada por veículos de comunicação franceses, como France 24, RFI, Mediapart, Radio France e TF1.

"Tem uma coisa que não vamos tolerar: o roubo não autorizado de conteúdo", disse na segunda-feira, durante coletiva de imprensa, a presidente da Radio France, Sibyle Veil.

A função do GPTBot é coletar todos os dados e informações de páginas na internet para alimentar seus modelos de inteligência artificial (IA) generativa.

Mas a start-up californiana, que tornou pública a forma de impedir que seu robô acesse os dados de um site, enfrenta uma rejeição crescente das páginas digitais.

Segundo a Originality.ai, uma ferramenta que detecta plágios, cerca de 10% da páginas mais importantes do mundo negaram o acesso ao GPTBot duas semanas depois de seu lançamento.

Entre elas estão Amazon.com, Wikihow.com, Quora.com e o banco de imagens Shutterstock. Segundo a Originality.ai, a proporção de sites na internet que proíbem o acesso ao GPTBot aumentará 5% por semana.

Remuneração e transparência

"Não há nenhuma razão para que se beneficiem dos nossos conteúdos sem contraparte", disse à AFP Laurent Frisch, diretor de estratégia digital e inovação da Radio France.

Ferramentas de IA, como o robô conversacional ChatGPT e geradores de imagens DALL-E 2, Stable Diffusion e Midjourney se tornaram muito populares no ano passado pela capacidade de gerar grande quantidade de conteúdo a partir de mensagens de texto curtas.

Mas as empresas responsáveis por estas ferramentas, como OpenAI e Stability AI, enfrentam agora uma série de processos de artistas e autores, que alegam que seu trabalho foi roubado.

"Já chega de sermos pilhados por estas empresas, que obtêm lucros às custas da nossa produção", queixou-se Vincent Fleury, diretor digital da France Medias Monde, empresa matriz da France 24 e da RFI.

Diretores de alguns meios de comunicação franceses também expressaram preocupação de que seus conteúdos sejam associados a informação falsa. Eles exigem que sejam abertas discussões com a OpenAI e outras empresas de IA.

"Os veículos devem ser remunerados de forma justa. Nosso desejo é obter acordos de licença e pagamento", declarou Bertrand Gié, diretor da divisão de notícias do jornal Le Figaro.

Primeiro passo

A agência de notícias Associated Press (AP) abriu o caminho nos Estados Unidos, ao assinar, em julho, um acordo com a OpenAI, que a autoriza a acessar seus arquivos desde 1985 em troca de ter acesso à sua tecnologia e experiência em IA.

A OpenAI também se comprometeu a destinar cinco milhões de dólares (aproximadamente 23 milhões de reais, na cotação atual) ao American Journalism Project, uma organização que apoia veículos locais, e outros US$ 5 milhões em créditos para ajudar a implantar tecnologias de IA.

Este mês, um consórcio de veículos de comunicação, entre eles AFP, Associated Press e Gannett/USA Today, publicou uma carta aberta pedindo aos dirigentes de empresas de IA que peçam permissão antes de usar seus textos e imagens para produzir conteúdo.

O Instagram vai começar a fazer uma apuração mais forte sobre o tipo de conteúdo que é publicado na rede social. Para evitar contas falsas e publicações geradas por bots com o propósito de enganar seguidores, a plataforma de Mark Zuckerberg começará, a partir desta quinta-feira (13), a solicitar que as pessoas confirmem quem está por trás de uma perfil ou conteúdo.

"Solicitando às pessoas por trás das contas que confirmem as próprias informações, poderemos entender melhor quando as contas estão tentando enganar os seguidores, responsabilizá-las e manter a nossa comunidade segura", diz publicação oficial da empresa. Apesar do alerta, o Instagram afirma que a "peneirada" será feita em uma pequena parcela da comunidade que usa a plataforma com frequência. "A maioria das pessoas não será afetada", afirma o comunicado. 

##RECOMENDA##

Estão na mira do Instagram contas potencialmente envolvidas em comportamento não autêntico coordenado, como perfis em que a maioria dos seguidores está em um país diferente da localização do usuário ou quando há sinais de automação, como contas de bot. 

Segundo a companhia, caso a equipe do Instagram perceba sinais de atividade considerada não-autêntica, será necessário que o proprietário do perfil confirme a própria identidade. Assim que as informações forem confirmadas a conta voltará a funcionar. Os números de identificação serão armazenados de forma segura e excluídos em até 30 dias após a conclusão da análise feita pela rede social. Eles não serão compartilhados ao público.

Caso uma conta escolha não confirmar as próprias informações, algumas sanções serão aplicadas como ter a distribuição reduzida do conteúdo ou, até mesmo, a desativação do perfil.

Em novembro de 2018, um "bot" chamado Tobi produziu quase 40 mil artigos de imprensa sobre os resultados das eleições na Suíça para a gigante da mídia Tamedia. E em apenas cinco minutos.

Tobi, um gerador automático de texto, escreveu sobre os resultados de cada um dos 2.222 municípios do país, em francês e alemão, segundo uma análise apresentada no mês passado na conferência Computation + Journalism, em Miami.

##RECOMENDA##

Este tipo de programa, dotado de inteligência artificial, disponível há dez anos, está se tornando cada vez mais comum nos grandes veículos de imprensa. "Vemos que o potencial da inteligência artificial ou do robô-jornalista é cada vez mais aceito nas redações do mundo todo", disse Damian Radcliffe, professor da Universidade do Oregon.

"Estes sistemas podem oferecer rapidez e exatidão e potencialmente ajudar na realidade de redações mais modestas, assim como nas pressões a que os jornalistas são submetidos em termos de tempo", acrescentou.

Enquanto o setor luta cada vez mais para sobreviver, os meios de comunicação começaram a se voltar para a inteligência artificial para produzir artigos, personalizar a entrega de informação e, em alguns casos, classificar os dados.

Para estas organizações, os "bots" não visam a substituir repórteres ou editores, mas sim ajudá-los a se desembaraçar de tarefas mais monótonas, como resultados esportivos e de empresas.

O The Washington Post, por exemplo, se apoiou em um programa chamado Heliograf para cobrir mais de 500 eleições desde 2014. Segundo Jeremy Gilbert, encarregado do jornal americano, o "bot" consegue dar resultados mais rápido e atualizar artigos à medida que a informação muda, o que permite aos jornalistas se concentrar em outras tarefas. Segundo ele, as reações dentro da redação têm sido positivas geralmente.

"Surpreendentemente, muita gente veio e disse: 'Eu faço este artigo todas as semanas, tem alguma coisa que poderíamos automatizar?'", relata Gilbert.

- Ajuda valiosa ou ameaça? -

As mesmas dúvidas pairam em outras redações pelo mundo. A agência de notícias norueguesa NTB automatizou os informes esportivos para que os resultados dos jogos saiam em 30 segundos.

O Los Angeles Times, por sua vez, desenvolveu um "quakebot", um "bot" especializado em terremotos, que publica rapidamente artigos sobre sismos na região.

A agência Associated Press automatizou os resultados de empresas para cerca de 3.000 companhias, enquanto o jornal Le Monde, com seu sócio Syllabs, utilizou um programa que gerou 150.000 páginas da Internet cobrindo 36.000 municípios durante as eleições de 2015.

Embora os profissionais de mídia reconheçam as limitações destes programas, também destacam que às vezes podem fazer o que os humanos não conseguem.

O Atlanta Journal-Constitution usou um equipamento de jornalismo de dados para desvendar 450 casos de médicos remetidos a juntas médicas ou tribunais por má conduta sexual, quase a metade dos quais ainda estão livres para exercer a medicina.

O jornal usou o "machine learning" - ou aprendizado automático - uma ferramenta de inteligência artificial, para analisar cada caso. O trabalho foi revisto em seguida por jornalistas.

E apesar de que os robôs pareçam ajudar os jornalistas, persistem as preocupações sobre a evolução do ofício. Alguns temem que a inteligência artificial saia do controle e resulte em cortes de empregos.

Em fevereiro, pesquisadores da OpenAI, uma organização especializada em inteligência artificial, anunciaram que haviam desenvolvido um gerador de texto automático tão bom que tinham decidido mantê-lo em sigilo pelo momento.

Segundo eles, o programa poderia ser usado para gerar artigos noticiosos falsos, usurpar a identidade de pessoas on-line ou automatizar conteúdos falsos nas redes sociais. Mas Meredith Broussard, professora de jornalismo de dados na Universidade de Nova York, não vê riscos imediatos na inteligência artificial.

Por enquanto, os programas se ocupam dos artigos "mais chatos", diz. "Alguns trabalhos serão automatizados, mas no geral não me preocupa um apocalipse causado por robôs na redação", acrescenta.

E Jeremy Gilbert, do Washington Post, reitera: seu jornal "tem uma equipe incrível de repórteres e editores e não queremos substituí-los".

O perfil Rosie, que identifica gastos irregulares de deputados federais e os denuncia no Twitter, está bloqueado no microblog, segundo informações do jornal Folha de S.Paulo. A ferramenta faz uma varredura nas milhares de notas fiscais emitidas pelos parlamentares para identificar se os gastos foram legítimos, ilegais ou superfaturados.

O perfil tem 38,9 mil seguidores e ainda pode ser acessado no Twitter por meio do perfil @RosieDaSerenata. O que foi bloqueado foi o serviço de automação, que permite publicar mensagens sem a necessidade de interferência humana.​

##RECOMENDA##

Segundo informa a Folha de S.Paulo, a pelo menos 20 denúncias pendentes a serem tuitadas no perfil. Ao publicar, o robô  menciona o perfil do deputado ou deputada em questão.

As descobertas de Rosie ainda não fizeram nenhum deputado perder o posto, mas já obrigaram alguns parlamentares a devolverem o dinheiro usado de forma irregular.  Em resposta ao caso, o Twitter disse que tem regras que determinam os comportamentos e conteúdos permitidos na plataforma, incluindo as de automação.

LeiaJá também

--> Netflix vai baixar séries automaticamente no iPhone

Imagine interagir com uma peça de ficção por meio de mensagens do Facebook. Esse é o intuito do Projeto Caretas, em parceria com o Fundo das Nações Unidas para a Infância (Unicef), que está “em cartaz” pela rede social desde fevereiro. Nele, um sistema emula uma personagem fictícia chamada Fabi Grossi, que conta sua história de revenge porn (pornô de vingança, em tradução literal) sofrido pelo seu ex namorado. O intuito do projeto, na realidade, é informar os caminhos que uma pessoa que sofre esse tipo de violência pode tomar na alçada legal. A conversa dura 24 horas por dia e pode se estender por diversos dias, a depender do usuário.

Para participar, basta ter pelo menos 13 anos e possuir uma conta no Facebook. O contato com sistema é feito acessando o perfil intitulado Fabi Grossi pela rede social e mandando alguma mensagem para a caixa de entrada, como confirmação de que a pessoa tem interesse em participar da encenação. A partir daí, a personagem conversa com o usuário e abre seus sentimentos, procura ajuda e fornece dados sobre porn revenge no Brasil.

##RECOMENDA##

O primeiro contato se trata de Fabi Grossi agradecendo por tê-la aceito no projeto Caretas. Em seguida, ela diz o nome, idade e pergunta quantos anos o usuário tem. “Legal. Cara… é meio estranho. Nem sei por onde começar. Tá foda, mas se eu não falar, vou explodir”, continua o bot. Assim, a conversa se desenrola. A experiência se torna tão real que a personagem fictícia envia áudios, selfies, prints de conversas com o ex e fala da vergonha que vai sentir se os pais descobrirem. 

Dois finais e uma problemática

A conversa se desenrola e pode ter dois desfechos. No primeiro, Fabi Grossi denuncia o ex namorado, procura ajuda dos pais e segue em frente. No segundo, e mais problemático, a jovem dá a entender que vai se suicidar e para de conversar com a pessoa. Segundo usuários do sistema, o rumo tomado na história vai depender de como o boot que interpreta a jovem é “aconselhado”. 

Apesar disso, a grande problemática é no impacto que essa responsabilidade pode causar aos colaboradores do projeto. A história não é real, mas é baseada em diversos casos de mulheres que sofreram o mesmo tipo de violência e acabaram tirando a própria vida. Esse tipo de ação pode gerar o mesmo discurso realizado durante a última campanha do Setembro Amarelo, em 2017, em que pessoas de diversos segmentos, sem expertise nas áreas de Psicologia ou Psiquiatria, se disponibilizaram a realizar espécies de consultas” gratuitas por meio da internet.

Usar mídias sociais pode ser um pouco como uma sessão de terapia gratuita, embora não muito eficaz. As pessoas compartilham eventos da vida, reclamam sobre seus problemas e oferecem conselhos umas às outras. Mas um novo aplicativo no Facebook chega para ajudar o usuário a entender e monitorar seu humor, informando, inclusive, se ele está deprimido.

O chamado Woebot, construído por uma equipe da renomada Universidade de Stanford (EUA), usa pequenas conversas diárias com o usuário para rastrear seu humor. Por meio da inteligência artificial, ele aprende com o comportamento da pessoa com quem conversa e ao longo do tempo oferece respostas cada vez mais personalizadas.

##RECOMENDA##

Após um teste gratuito de duas semanas, o Woebot custa US$ 39 (cerca de R$ 121) por mês. A ferramenta, no entanto, enfatiza no início do primeiro bate-papo que é um robô e que não pode, nem deve, substituir um humano. O estilo de conversação automatizado, mas atencioso do Woebot é modelado em princípios terapêuticos básicos como a empatia.

Às vezes, é fácil esquecer que o Woebot é um robô, pois ele faz perguntas sobre seu humor naturalmente. Embora os usuários conversem com o Woebot no app de bate-papo Messenger, a plataforma promete não deixar qualquer rastro sobre as conversas na rede social, nem espiar sua vida pública.

A grande dúvida, no entanto, é se a ferramenta realmente consegue obter resultados positivos. Em um estudo recente realizado na Universidade de Stanford, o uso de Woebot levou a reduções significativas na ansiedade e depressão entre pessoas com idades entre 18 e 28 anos. Ficou curioso? Então acesse o app aqui.

LeiaJá também

--> Novo app da Microsoft narra o mundo para pessoas cegas

Leianas redes sociaisAcompanhe-nos!

Facebook

Carregando