Não é assinante?

    Inteligência Artificial – A aventura rumo ao fim da humanidade

    Estamos em uma jornada, um tipo de escalada, não diferente dos maiores alpinistas do mundo que se aventuram na montanha mais alta do planeta, o Monte Everest. Eles sobem e descem incontáveis vezes antes de atingir o cume, um processo de aclimatação para as imensuráveis altitudes. Agora, em vez de neve e gelo, estamos nos aclimatando ao terreno inexplorado do futuro – um futuro repleto de inteligências artificiais.

    A ascensão da inteligência artificial

    Agora imagine, se pudermos, voltar ao tempo em que as inteligências artificiais não passavam de um sonho ousado em mente de autores de ficção científica como Isaac Asimov. Este notável visionário, além de moldar a imaginação de milhões, também acertou em muitas de suas previsões. Ele antecipou a comunicação por vídeo e áudio, carros controlados por “cérebros-robôs”, e, claro, a presença onipresente de robôs em nosso cotidiano.

    Isaac Asimov e as três leis da robótica: um legado de responsabilidade

    Isaac Asimov estava certo: as previsões do escritor para 2014 que viraram realidade - BBC News Brasil

    Isaac Asimov não só previu um futuro povoado por robôs, como também esboçou uma estrutura ética para reger o comportamento de tais seres. Este framework é composto pelas famosas Três Leis da Robótica, uma série de preceitos programados na essência de cada máquina inteligente de seus contos.

    A primeira lei da robótica

    A primeira lei estipula que “Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.” Isso estabelece uma regra de não-agressão, onde o bem-estar humano é primordial. O robô, de acordo com Asimov, deveria ser uma entidade de serviço, trabalhando para melhorar e preservar a vida humana.

    A segunda lei da robótica

    A segunda lei diz: “Um robô deve obedecer às ordens dadas por seres humanos, exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei.” Esta regra reforça a relação servo-mestre entre humanos e robôs. Mesmo que um humano ordene algo prejudicial a si mesmo, o robô deve priorizar a Primeira Lei e não cumprir a ordem.

    A terceira lei da robótica

    Finalmente, a terceira lei estabelece: “Um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira ou a Segunda Lei.” Esta lei fornece um grau de autossobrevivência aos robôs, desde que isso não resulte em danos aos humanos ou na desobediência às suas ordens.

    A lei zero: uma evolução do pensamento de Asimov

    No entanto, à medida que Asimov continuava a explorar a interação complexa entre humanos e robôs, ele percebeu que havia situações em que essas três leis poderiam ser insuficientes ou até mesmo contraditórias. Assim, ele introduziu a “Lei Zero” que estabelecia que “Um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.”

    Este preceito supremo coloca o bem-estar da humanidade como um todo acima do bem-estar de indivíduos isolados, reorientando o foco dos robôs para a preservação da nossa espécie.

    Desafios atuais: as leis de Asimov no mundo moderno

    Por mais visionárias que as leis de Asimov possam ter sido em sua época, elas não conseguem abordar completamente os dilemas complexos apresentados pelas inteligências artificiais de hoje. As questões éticas que emergem da IA e do aprendizado de máquina são muito mais sutis e intrincadas do que o que a simplicidade das Três Leis pode cobrir.

    Ainda assim, o legado de Asimov continua a nos influenciar, inspirando a necessidade de desenvolver uma ética robusta e considerada para guiar a evolução e implementação da inteligência artificial em nossa sociedade. É um desafio que ainda estamos enfrentando, mas é uma jornada que, graças a visionários como Asimov, não estamos fazendo sem algum grau de orientação.

    Desafios da inteligência artificial atual

    As questões que enfrentamos hoje não são mais de um robô que pode nos ferir fisicamente, mas sim de algoritmos que podem prejudicar nossa sociedade de maneiras muito mais sutis e insidiosas. Com a AI se tornando onipresente, somos desafiados a lidar com problemas de viés algorítmico e falta de transparência. É essencial lembrar que, por mais fascinantes que as inteligências artificiais possam ser, elas são apenas ferramentas – revolucionárias, sem dúvida, como a roda uma vez foi, mas ainda assim, ferramentas.

    A humanidade no centro da escalada tecnológica

    Neste momento crucial de nossa escalada, é vital lembrar que o ser humano deve permanecer no centro. A história mostrou, mais vezes do que gostaríamos de admitir, que somos altamente capazes de autodestruição. À medida que nos aproximamos da borda da confiança plena na AI, precisamos ter cautela para evitar cair na armadilha de nosso próprio potencial para o autoflagelo.

    Olhando para frente

    No espírito da escalada, devemos desviar nosso olhar do pico por um momento para avaliar a rota que escolhemos. As previsões de Asimov são um farol no caminho, mas devemos complementá-las com nossa própria visão crítica. É hora de parar, respirar fundo e considerar cuidadosamente o futuro que queremos.

    Conforme avançamos na criação de inteligências artificiais mais avançadas e integradas, é imperativo que nos questionemos: estamos preparados para o próximo passo desta escalada? Ou vamos sucumbir aos perigos da montanha na nossa pressa por atingir grandes alturas?

    As lições de Asimov e as perguntas que enfrentamos hoje servem como um lembrete de que a nossa jornada com a IA não é apenas sobre a tecnologia em si, mas também sobre nós, humanos. Precisamos aprender a equilibrar nosso desejo de progresso tecnológico com a necessidade de proteger e nutrir nossa própria humanidade.

    E assim, nossa escalada continua.

    QI do Eistein e QI do ChatGPT

    Comparar o QI de uma IA, como o ChatGPT, com um ser humano, é um território complexo e controverso. O QI, ou quociente de inteligência, é um indicador desenvolvido para avaliar certas habilidades cognitivas humanas, como o raciocínio lógico, a resolução de problemas, a compreensão linguística e a memória de trabalho. Embora a ideia de que o ChatGPT possa ter um QI de 155 seja impressionante, é importante entender o contexto desse número.

    Albert Einstein, um dos maiores físicos da história, possuía um QI de 160, apenas cinco pontos a mais do que o atribuído ao ChatGPT. Einstein transformou a humanidade com sua teoria da relatividade e a fórmula E=mc², base para o desenvolvimento da energia nuclear. Seu trabalho abriu caminho para inovações como o GPS. Mas esse é o ponto: Einstein não apenas resolveu problemas, mas também os identificou e criou novas teorias e princípios. Nesse sentido, comparar uma IA com Einstein se torna um desafio, já que a IA carece de consciência, criatividade e intuição, elementos que desempenharam um papel crucial no trabalho de Einstein.

    Com a perspectiva de uma atualização futura do ChatGPT, que potencialmente poderia dez vezes aumentar sua “inteligência”, surgem debates sobre a “era de Ultron”. No entanto, a OpenAI foi clara em afirmar que não está treinando o GPT-5, tornando qualquer discussão sobre suas capacidades pura especulação. Como afirmado por Machado Dias, as máquinas que poderiam superar o QI de Einstein ainda não existem e estão longe de se materializar.

    Se um futuro ChatGPT-5 ou ChatGPT-6 for desenvolvido, é plausível que eles possam superar a maioria dos estudantes em testes padronizados, como o ENEM no Brasil. No entanto, mesmo essa conquista impressionante não indicaria necessariamente que esses modelos de IA superaram a inteligência humana em todas as dimensões. A inteligência humana é multifacetada, envolvendo criatividade, empatia, consciência e adaptação, atributos que a IA atualmente luta para replicar. Portanto, é vital manter uma perspectiva equilibrada quando se considera a questão do QI da IA.

    Ameaças potenciais: substâncias químicas letais e IA

    Um dos cenários menos imaginativos, mas assustadoramente reais, envolve a utilização de IA para a criação e propagação de novos vírus. Modelos de linguagem avançados, como o GPT-3, que é usado para criar o ChatGPT, são particularmente adeptos à criação de novos agentes químicos prejudiciais. Uma experiência chocante realizada por um grupo de cientistas utilizando IA para descobrir novos medicamentos resultou na geração de 40.000 agentes potencialmente venenosos em menos de seis horas, como relatado pela revista Nature Machine Intelligence. Joanna Bryson, especialista em inteligência artificial da Hertie School em Berlim, reitera que é totalmente plausível que alguém possa usar essas ferramentas para espalhar veneno, como antraz, mais rapidamente. No entanto, ela é enfática ao dizer que isso não representa uma ameaça existencial, mas sim uma arma terrível.

    A humanidade: Uma fase passageira?

    Contrapondo-se às representações cinematográficas de desastres súbitos, enormes e dramáticos, talvez o fim da humanidade seja mais sutil, silencioso e indeterminado. Como o filósofo Huw Price sugeriu, é possível que nossa espécie chegue ao fim sem deixar um sucessor. No entanto, ele também imagina um futuro menos sombrio, onde os humanos, aprimorados com tecnologia avançada, poderiam sobreviver.

    Esta visão apocalíptica é também apoiada pelo renomado físico teórico Stephen Hawking, que argumentou em 2014 que, eventualmente, nossa espécie não será capaz de competir com as máquinas de inteligência artificial. Ele expressou à BBC que essa evolução poderia “significar o fim da raça humana”.

    Geoffrey Hinton, que passou sua carreira construindo máquinas que se assemelham ao cérebro humano, compartilha dessa visão, falando de “superinteligências” que irão inevitavelmente ultrapassar os humanos. Ele disse recentemente à emissora americana PBS que é possível que “a humanidade seja apenas uma fase passageira na evolução da inteligência”.

    A apoio dos líderes da IA: OpenAI, Google DeepMind e Anthropic

    Essas preocupações não estão confinadas aos domínios da filosofia e da física teórica. Figuras proeminentes no campo da inteligência artificial, incluindo Sam Altman, CEO da OpenAI, fabricante do ChatGPT, Demis Hassabis, CEO do Google DeepMind, e Dario Amodei da Anthropic, expressaram seu apoio a estas questões.

    O texto do Center for AI Safety sugere uma série de cenários de desastre potencial:

    1. As IA’s podem ser armadas – por exemplo, com ferramentas para descobrir drogas que podem ser usadas na construção de armas químicas;

    2. A desinformação gerada pela IA pode desestabilizar a sociedade e “minar as tomadas de decisões coletivas”;

    3. O poder da IA pode se tornar cada vez mais concentrado em poucas mãos, permitindo que “regimes imponham valores restritos por meio de vigilância generalizada e censura opressiva”;

    4. O enfraquecimento humano pode ocorrer à medida que nos tornamos cada vez mais dependentes da IA, em um cenário semelhante ao retratado no filme Wall-E.

    Estas questões foram apoiadas não só por Altman, Hassabis e Amodei, mas também por Geoffrey Hinton, que já havia emitido um alerta anterior sobre os riscos da superinteligência, e Yoshua Bengio, professor de Ciências da Computação na Universidade de Montreal.

    O debate sobre os riscos da IA

    Apesar do consenso entre alguns dos maiores nomes da IA, existem muitos especialistas que consideram que esses avisos apocalípticos são “exagerados”. Yann LeCunn, professor da Universidade de Nova York (NYU) e empregado da Meta, proprietária do Facebook, acredita que a reação mais comum dos pesquisadores de IA a estas profecias de destruição é o constrangimento.

    Arvind Narayanan professor associado de Ciência da Computação na Universidade de Princeton, também expressou ceticismo sobre os cenários do “fim do mundo”. Ele argumenta que essas preocupações distorcem o foco das questões imediatas de IA que necessitam de atenção, como os problemas de justiça social e econômica.

    O debate está longe de ser resolvido e continua a dividir a comunidade de IA. Enquanto alguns acreditam que estamos na beira de um precipício tecnológico que pode aniquilar nossa espécie, outros argumentam que essas preocupações estão tirando o foco dos problemas presentes, como a perda de empregos para a automação, a vigilância por meio de IA, a criação de sistemas de armas autônomos e a disseminação de desinformação.

    Para onde isso nos leva?

    As previsões do fim do mundo costumam gerar ceticismo, e com razão. No entanto, quando essas previsões vêm de cientistas e especialistas proeminentes, é difícil ignorá-las completamente. Precisamos enfrentar a realidade de que a inteligência artificial tem o potencial para transformar nossa sociedade de maneiras que não podemos prever completamente. A única coisa que podemos fazer é nos preparar da melhor maneira possível, estabelecendo salvaguardas, regulamentações e planejamento para o pior, enquanto esperamos pelo melhor.

    Os perigos potenciais da IA são preocupantes, e é importante que tomemos medidas para prevenir qualquer dano futuro. Isso inclui a promoção de pesquisas em segurança de IA, a regulamentação da indústria e a conscientização do público sobre esses riscos. É essencial que a humanidade mantenha o controle sobre a tecnologia que criamos e garantamos que ela seja usada para beneficiar a sociedade, em vez de prejudicá-la.

    Envolvimento consciente

    Em nosso caminho rumo à cúpula da IA, é imperativo que cada um de nós se envolva de maneira consciente e crítica. Nós, como sociedade, precisamos garantir que a IA seja projetada, desenvolvida e usada de maneiras que beneficiem a humanidade. Aqueles que estão na vanguarda desta tecnologia têm uma responsabilidade particular, pois seus esforços e decisões moldarão o cenário do futuro.

    As preocupações de que as IAs fujam do nosso controle sempre estarão próximas e isso tem um espaço para acontecer, sendo importante entendermos como funciona para nos proteger e cuidar para que isso não aconteça.

    Um caminho colaborativo

    Ao progredirmos, a colaboração deve estar no cerne de nossos esforços. Engenheiros, cientistas, legisladores, educadores e cidadãos comuns devem unir forças para moldar uma visão coletiva para o futuro da IA. Juntos, podemos garantir que a implementação de inteligências artificiais em nossas vidas seja saudável e positiva, em vez de uma ameaça à nossa segurança informacional e à própria humanidade.

    Ao seguirmos nesta escalada até o cume da era da inteligência artificial, é crucial lembrar a importância da aclimatação. Como os escaladores do Everest, precisamos nos aclimatar às novas altitudes tecnológicas e à paisagem em constante mudança da sociedade moderna. É hora de respirar fundo, de avaliar o terreno à nossa frente e, mais importante, de garantir que, acima de tudo, permaneçamos humanos.

    Com estas reflexões, acreditamos que estamos preparados para enfrentar os desafios e oportunidades que a IA tem a oferecer. E assim, com cautela, consideração e otimismo, continuamos nossa aventura para o cume desta montanha tecnológica.

    O post Inteligência Artificial – A aventura rumo ao fim da humanidade apareceu primeiro em Madureira - CopyCrypto.

    Assine agora para receber conteúdos como esse!

      plugins premium WordPress