Os criadores do ChatGPT, a ferramenta que possibilitou novos programas de inteligência artificial no mundo, voltaram a apelar à regulação do sector por forma a se evitar possíveis riscos de violação de direitos humanos e atentados à soberania dos povos e dos estados. Numa breve carta publicada online esta semana, os fundadores desta ferramenta comparam os novos sistemas de inteligência artificial capazes de escrever, dialogar e programar como humanos como a energia nuclear e apelaram à criação de uma instituição equivalente à Agência Internacional de Energia Atómica (AEIA) para monitorizar o sector e realizar auditorias.
Tendo em conta o panorama actual, especialistas do sector das TIC consideram que é concebível que, nos próximos dez anos, os sistemas de Inteligência Artificial ultrapassem o nível de competências dos especialistas na maioria dos domínios. Estes, consideram que o Chat GPT pode trazer um futuro dramaticamente mais próspero. Não obstante, estes chamam atenção para maior gestão dos riscos inerentes a esta nova forma de ser e estar imposta por este avanço tecnológico.
Apesar dos repetidos apelos para regulação do Chat GPT, ainda não há passos dada nesse sentido nem a nível dos legisladores internacionais do sector das TIC nem a nível das gigantes tecnológicas que lideram as TIC a nível mundial. Entretanto, os criadores desta plataforma, cientes dos riscos que a mesma pode trazer para a sociedade, consideram que um dos grandes desafios é conseguir regular de forma a evitar os riscos da tecnologia, mas sem travar a inovação.
Donos do ChatGPT entendem que a população mundial deveria decidir democraticamente sobre os limites e padrões dos sistemas de Inteligência Artificial, mas admitem haver dificuldades para a realização da referida consulta. Ao mesmo tempo, estes alertam para os riscos da tecnologia e avaliam que o desenvolvimento de sistemas poderosos constituem risco para a humanidade.
Especialistas das TIC consideram que é tarefa dos governos desenvolverem planos de acção nacionais para lidar com o potencial uso indevido da tecnologia e as empresas que forem a aderir devem ser responsabilizadas por eventuais riscos.
Comments are closed here.