sábado, 1 de abril de 2023

INTELIGÊNCIAS ARTIFICIAIS

 Desenvolvimento de Inteligências Artificiais está “fora de controle” e pode pôr em risco sobrevivência da humanidade

Pode ser uma imagem de texto
No ChatGPT, até seus criadores admitem que é preciso supervisionar a Inteligência Artificial.
A carta aberta distribuída esta semana pelo grupo https://futureoflife.org/
conclama laboratórios de IAs a pausarem seus trabalhos por, pelo menos, seis meses, para que se juntem a um grande esforço para estabelecer rigorosos protocolos de segurança, supervisão e rastreamento de IAs com habilidades quase humanas, como a nova versão do ChatGPT – o ChatGPT-4, criado pela startup OpenAI.
“Poderosos sistemas de IA deveriam ser desenvolvidos, somente se estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis.
Esta confiança deve ser bem justificada e crescer com a magnitude dos efeitos potenciais de um sistema”, afirma o grupo.
Além de Musk, outros peso-pesados do mundo da tecnologia também aderiram ao apelo, como Steve Wozniak, cofundador da Apple. A carta-aberta permite a adesão de qualquer pessoal ao abaixo-assinado que a acompanha.
Devido à grande demanda, porém, as assinaturas foram pausadas.
*Veja a íntegra da carta subscrita por Musk, Wozniak e outros especialistas, pedindo a suspensão do desenvolvimento de Inteligências Artificiais (IAs):*
“Sistemas de IA com inteligência competitiva com a humana pode trazer profundos riscos à sociedade e à humanidade, como mostrado por extensa pesquisa e reconhecido por importantes laboratórios de IA.
Como se afirma no amplamente apoiado Asilomar AI Principles, uma IA avançada poderia representar uma profunda mudança na história da vida na Terra, e deveria ser planejada e gerida com os correspondentes cuidados e recurso. Infelizmente, este nível de planejamento e gestão não está ocorrendo, mesmo que tenhamos visto, nos últimos meses, ao laboratórios de IA presos a uma corrida fora de controle para desenvolver e empregar cérebros digitais ainda mais poderosos que ninguém – nem mesmo seus criadores – pode compreender, predizer ou controlar razoavelmente.
Os sistemas de IA contemporâneos estão, agora, se tornando competitivos com os humanos em tarefas em geral, e devemos nos perguntar: deveríamos permitir que máquinas inundem nossos canais de informação com propaganda e inverdades? Deveríamos automatizar todos os trabalhos, inclusive os mais gratificantes?
Deveríamos desenvolver mentes não-humanas que poderiam, eventualmente, nos superar em número e em inteligência, nos tornando obsoletos e nos substituindo?
Deveríamos nos arriscar a perder o controle de nossa civilização? Essas decisões não devem ser delegadas para líderes do setor de tecnologia não-eleitos.
Poderosos sistemas de IA deveriam ser desenvolvidos, somente se estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis.
Esta confiança deve ser bem justificada e crescer com a magnitude dos efeitos potenciais de um sistema.
A recente declaração da OpenAI sobre a inteligência artificial em geral afirma que “em certo ponto, pode ser importante contar com revisão independente, antes de iniciar o treinamento de futuros sistemas, e para os esforços mais avançados para estabelecer um limite para a taxa de crescimento da computação utilizada para criar novos modelos.” Nós concordamos. E estamos neste ponto agora.
Portanto, conclamamos todos os laboratórios de IA a suspender imediatamente por, pelo menos, 6 meses, o treinamento de sistemas de IA mais poderosos que o GPT-4. Esta pausa deveria ser pública e verificável, e incluir todos os atores-chave.
Se tal pausa não puder ser implementada rapidamente, os governos deveriam vir a campo e instituir uma moratória.
Os laboratórios de IA e especialistas independentes deveriam usar essa pauta para, em conjunto, desenvolver e implementar um leque de protocolos de segurança compartilhados para o design e o desenvolvimento de IAs avançadas, que sejam rigorosamente auditados e supervisionados por experts externos e independentes.
Esses protocolos deveriam assegurar que os sistemas que aderirem a eles são seguros, acima de qualquer dúvida razoável.
Isso não significa uma pausa no desenvolvimento de IAs em geral, mas simplesmente um passo atrás de uma perigosa corrida rumo a cada vez maiores e imprevisíveis “modelos caixas-pretas” com capacidades emergentes.
A pesquisa e o desenvolvimento de IA deveria ser reorientada para tornar os atuais e poderosos sistemas, que representam seu estado-da-arte, mais acurados, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais.
Em paralelo, os desenvolvedores de IA devem trabalhar em conjunto com os formuladores de políticas públicas para acelerar dramaticamente o desenvolvimento de sistemas robustos de governança das IAs. Isso deveria, no mínimo, incluir: novas e capacitadas autoridades regulatórias dedicadas à IA; monitoramento e rastreamento de sistemas de IA altamente capazes e grandes pools de capacidade computacional; sistemas de proveniência e marca-d’água para auxiliar a distinguir o real do sintético e rastrear fissuras no modelo; um robusto ecossistema de auditoria e certificação; responsabilização por danos causados por IA; robustos fundos públicos para a pesquisa técnica de segurança de IA; e institutos bem financiados para lidar com as dramáticas disrupturas econômicas e políticas (especialmente à democracia) que a IA causará.
A humanidade pode gozar de um futuro florescente com a IA. Ao sermos bem-sucedidos em criar poderosos sistemas de IA, podemos agora usufruir de um “verão da IA”, no qual colhemos os frutos, projetamos os sistemas para o claro benefício de todos, e damos à sociedade uma chance de se adaptar.
A sociedade já suspendeu outras tecnologias com efeitos potencialmente catastróficos. Podemos fazer o mesmo aqui. Vamos gozar de um longo verão da IA, e não corrermos despreparados para um outono decadente.”

Um comentário:

  1. Sem controle será o fim do pensamento humano diversificado. Será a sacramentação do pensamento único infalível da máquina, como o robô foi o fim da habilidade manual e do emprego na indústria. Um horror !!

    ResponderExcluir