sexta-feira, 6 de abril de 2018

Stephen Hawking alerta: nosso tempo como espécie dominante no planeta está acabando


O famoso físico Stephen Hawking afirmou mais uma vez seu receio de que seja apenas uma questão de tempo até que a humanidade precise fugir da Terra em busca de um novo lar.

Em uma entrevista recente concedida ao portal Wired, Haking ponderou que a sobrevivência da humanidade dependerá da nossa capacidade de se tornar uma espécie multiplanetária.

Por quê?
Por conta da população crescente e ameaça iminente que o desenvolvimento da inteligência artificial (IA) representa. “O gênio está fora da garrafa”, Hawking disse à Wired.

Desgraça com mais desgraça
Essa não é a primeira vez que o físico faz previsões sombrias sobre o destino da Terra, ou adverte que a IA pode tornar-se tão perigosa a ponto de substituir a humanidade.

Em entrevista realizada em março com o The Times, o cientista afirmou ainda que um apocalipse IA estava para acontecer, e que a criação de “alguma forma de governo mundial” seria necessária para controlar a tecnologia.

Também já advertiu sobre o impacto que a IA teria em empregos de classe média e até pediu uma proibição definitiva sobre o desenvolvimento de agentes de IA para uso militar.


Hawking está exagerando?

Talvez não.

É possível argumentar, com bastante razão, que máquinas inteligentes já estão acabando com muitos empregos. Não estamos falando apenas de funções automatizadas na grande indústria – robôs já estão realizando tarefas especializadas até mesmo em hospitais, e costurando roupas mais rápido que humanos. Um estudo, inclusive, estimou que 47% dos empregos vão desaparecer nos próximos 20 anos.

Além disso, vários países – incluindo os EUA e a Rússia, envolvidos agora em uma tensão política – estão pesquisando armas IA para uso militar.

Por fim, e mais assustadoramente ainda, uma IA bastante avançada – mas que já chegou a concordar automaticamente com a noção de destruir a humanidade – se tornou o primeiro robô a ganhar cidadania.

Medo justificado
O desenvolvimento da IA é um tópico que já foi debatido por outros especialistas além de Hawking, como Elon Musk, CEO da SpaceX e Tesla, e Bill Gates, cofundador da Microsoft.

Tanto Musk quanto Gates concordam com o físico no potencial da IA de extinguir a humanidade.

Ainda que existam pesquisadores que não acreditem em um cenário apocalíptico, inclusive argumentando que tais preocupações são desgastantes e distorcem a percepção pública da IA, Hawking defende que os receios são válidos.

“Se as pessoas projetam vírus de computador, alguém irá projetar uma IA capaz de evoluir e se replicar”, disse ao Wired. “Esta será uma nova forma de vida que superará os humanos”.

Certamente, uma IA inteligente o suficiente para pensar melhor e mais rápido do que os humanos seria capaz de ameaçar nossa espécie – o que chamamos de singularidade tecnológica.

Preparação
Uma vez que diversos cientistas estão trabalhando com inteligência artificial em todo o planeta, é inevitável supor que, mais cedo ou mais tarde, uma tragédia pode acontecer.

O palpite de Hawking é que, em algum momento dentro do prazo de 1.000 anos, a humanidade vai precisar sair da Terra de qualquer forma.

O físico pode estar errado, no entanto. Não sabemos exatamente como (e se) tal singularidade tecnológica será, e, em vez de causar a destruição da humanidade, ela poderia inaugurar uma nova era de colaboração entre seres vivos e máquinas.

Em ambos os casos, contudo, o potencial da IA para ser usada tanto para o bem quanto para o mal exige que tomemos as precauções necessárias. [ScienceAlert]

por Natasha Romanzoti
Este site não produz e não tem fins lucrativos sobre qualquer uma das informações nele publicadas, funcionando apenas como mecanismo automático que "ecoa" notícias já existentes. Não nos responsabilizamos por qualquer texto aqui veiculado.

Nenhum comentário:

Postar um comentário