#Notícias: Especialistas testam GPT-4 e revelam riscos para a humanidade.

Você já imaginou a possibilidade de uma inteligência artificial ser capaz de sugerir uma substância química que poderia atacar o sistema nervoso humano? 

Pois é, especialistas testaram o GPT-4, a nova versão do ChatGPT, e descobriram riscos alarmantes para a humanidade.

Andrew White, professor de engenharia química da Universidade de Rochester, testou o GPT-4 e adicionou “plugins” para alimentá-lo com novas informações. Como resultado, o chatbot sugeriu uma substância química que poderia funcionar como uma arma química e até encontrou um local para produzi-la. Embora a tecnologia possa ser utilizada para processos químicos mais precisos, também existe um risco significativo de pessoas mal intencionadas fazerem coisas perigosas com a química.

Esses resultados alarmantes levantaram preocupações sobre os perigos da adoção de sistemas poderosos de inteligência artificial. A OpenAI, empresa responsável pelo GPT-4, formou uma “equipe vermelha” de 50 acadêmicos e especialistas para investigar possíveis problemas de toxicidade, preconceitos e inclinações linguísticas tendenciosas no modelo. O objetivo era identificar riscos e garantir que não aparecessem quando a nova versão da tecnologia fosse lançada para o público mais geral.

Embora a inteligência artificial tenha grande potencial para tornar nossas vidas mais fáceis e eficientes, é importante lembrar que há riscos significativos associados ao seu desenvolvimento e implementação. É fundamental que sejam tomadas medidas adequadas para garantir que a tecnologia seja usada de forma responsável e segura.

O bem e o mal sempre estiveram lado a lado, em uma batalha constante pela supremacia. Mas a solução para que o bem vença é simples: nunca permitir que o mal tenha espaço. Assim como nas ficções científicas, devemos programar a nossa vida para que o mal nunca seja uma opção viável.

Na minha avaliação como leigo, a solução me parece simples, como exemplo dos filmes de ficção, as inteligências artificiais são programadas para seguir regras e princípios básicos, entre esses, o que garantem a segurança e a vida dos humanos, por que não aplicarmos a mesma lógica? A regra número 1 dever ser sempre evitar o mal da humanidade, e a regra número 2 jamais permitir que a regra número 1 seja eliminada.

Apesar das dificuldades e obstáculos, acredito que na solução que venha ser dada, o bem sempre prevalecerá sobre o mal, o bem sempre triunfará sobre o mal.

Ficou curioso, acesse: 👉Valor


#InteligênciaArtificial #GPT4 #RiscosParaAHumanidade #ChatGPT #OpenAI #EquipeVermelha #ResponsabilidadeTecnológica #Segurança

By IDFM

Estamos no Google News, nas seguir e seja notificado sempre que houver uma nova publicação:
click agora 👉 https://news.google.com/s/CBIw6NGf108?sceid=BR:pt-419&sceid=BR:pt-419

Deixe um comentário