Ezra Klein > Perigo da IA não é o que ela pode fazer, mas como será usada e quem vai decidir Voltar
Comente este texto
Leia Mais
Excelente artigo. Participei do seminário "Inteligência e Inteligência Artificial" onde discutia-se sobre se seria possÃvel algum dia "colocar" sentimentos em robôs, fiz a pergunta: Vocês não acreditam q está acontecendo o contrário, ou seja, os seres humanos estão perdendo a capacidade de sentir, tornando-se robôs a serviço do capitalismo? A resposta simplista veio: a saÃda é educação, educação, educação. Eu acho que não é só isso não. Precisamos muita regulamentação, regulamentação das IA.
Continuo: Basta verificar que mesmo diante do genocÃdio que aconteceu no Brasil durante a pandemia (quase 700 mil vidas perdidas), ainda assim muita gente com educação, educação, educação, pós-graduação, doutorado, mestrado, médicos, advogados, juÃzes, votaram no escomungado que agora se refugia na Flórida. Portanto, não é só educação. Tem de ter regulamentação onde não existe consciência da existência do outro, e senso de sociedade.
Somente conjecturas. Parece até uma IA falando. Seria importante publicar uma reflexão os riscos de uma IA geradora de textos por alguém que sabe fazer a programação de algoritmo funcionamento. Os potenciais e riscos desse tipo de tecnologia está relacionado ao modo de funcionamento. Não sou expert no assunto, mas imagino que não seja tão simples efetuar controles sobre todo tipo de assunto via programação dessas IA. Gostaria de ouvir quem é especializado nisso.
Inteligência artificial nada mais é um programa que possui um mecanismo de tomada de decisões. É simples ver o viés de uma IA: vai no ChatGPT e pede para escrever um poema elogiando o Obama e em seguida um elogiando o Trump. Só o segundo virá com um aviso sobre polÃtica. Isso não foi o modelo de inteligência que inferiu, mas os desenvolvedores que atrelaram um aviso toda vez que se pede para falar bem de lÃderes que os desenvolvedores julgam controversos.
Pelo teor do artigo, será quase impossÃvel que as regras de Asimov sejam aplicadas à IA: 1. Um robô não pode ferir um humano ou permitir que um humano sofra algum mal; 2.Os robôs devem obedecer à s ordens dos humanos, exceto nos casos em que essas ordens entrem em conflito com a primeira lei; 3. Um robô deve proteger sua própria existência, desde que não entre em conflito com as leis anteriores. À questão é: quem fiscalizará o fiscal?
Às vezes tenho a impressão que os livros que Isaac Asimov escreveu foram "estudo de futuro".
Busca
De que você precisa?
Fale com o Agora
Tire suas dúvidas, mande sua reclamação e fale com a redação.
Ezra Klein > Perigo da IA não é o que ela pode fazer, mas como será usada e quem vai decidir Voltar
Comente este texto