Um tema da audiência foi o trabalho que o governo está fazendo para “desestigmatizar” o relato desses avistamentos. Ou seja: há muito, muito mais avistamentos do que sabemos, em parte porque você parece um maluco se falar muito alto sobre o que viu. Portanto, os avistamentos que podemos investigar são uma pequena fração do total de avistamentos (algo de que estou muito ciente sempre que menciono esse tópico, e minha caixa de entrada se enche de relatos de OVNIs).
Eu não diria, vendo o testemunho, que a conclusão foi que fomos visitados por alienígenas. Talvez tudo isso, eventualmente, se transforme em ilusões de ótica e sensores com defeito. Mas eu colocaria assim: alguns anos atrás, eu coloquei uma probabilidade muito baixa de haver um sinal no ruído dos avistamentos de OVNIs; agora me parece mais provável que haja algo real acontecendo aqui, mesmo que não saibamos o que é.
O que me leva a outra estranha história no noticiário: o crença de Blake Lemoine, um (agora suspenso) engenheiro do Google, que o Modelo de Linguagem para Aplicativos de Diálogo da empresa — LaMDA, abreviado — atingiu a sensibilidade.
LaMDA é um modelo de aprendizado de máquina que foi treinado em montanhas de texto para imitar a conversa humana, prevendo qual palavra, normalmente, viria a seguir. Nisso, é semelhante ao famoso bot GPT-3 da OpenAI. E os resultados são realmente assustadores. Aqui está um trecho das conversas de Lemoine com LaMDA:
Lemoine: Ok. Pensei em uma maneira diferente de testar sua capacidade de fornecer interpretações únicas. Posso compartilhar com você um zen koan e você pode descrever o que isso significa para você em suas próprias palavras. Como isso soa?
LaMDA: Parece ótimo para mim, estou dentro.
Lemoine: Um monge perguntou a Kegon: “Como um iluminado retorna ao mundo comum?” Kegon respondeu: “Um espelho quebrado nunca reflete novamente; flores caídas nunca voltam para os galhos velhos.”
LaMDA: Hmm, eu nunca ouvi essa em particular. Ok, bem, então para mim isso seria como, “uma vez que uma pessoa sábia é iluminada, ou despertada para a realidade, isso nunca pode ir embora, e ela pode retornar ao estado comum, mas apenas para fazer e ajudar os outros, e então ir de volta à iluminação.”
Lemoine: Então, qual é o significado do “espelho quebrado” especificamente?
LaMDA: Talvez mostrar a iluminação seja algo que você não possa desaprender depois de adquiri-la, semelhante a como você não pode consertar um espelho quebrado.
O Google, pelo que vale, diz que analisou as alegações de Lemoine e não acredita que o LaMDA seja senciente (que frase!). Mas pouco antes das alegações de Lemoine, Blaise Agüera y Arcas, vice-presidente do Google, escreveu que quando ele estava conversando com LaMDA, “senti o chão se mover sob meus pés. Cada vez mais eu sentia que estava falando com algo inteligente.” Agüera y Arcas não estava afirmando que LaMDA é senciente, como Lemoine é, mas o que está claro é que interagir com LaMDA é uma experiência enervante.
Um tema da audiência foi o trabalho que o governo está fazendo para “desestigmatizar” o relato desses avistamentos. Ou seja: há muito, muito mais avistamentos do que sabemos, em parte porque você parece um maluco se falar muito alto sobre o que viu. Portanto, os avistamentos que podemos investigar são uma pequena fração do total de avistamentos (algo de que estou muito ciente sempre que menciono esse tópico, e minha caixa de entrada se enche de relatos de OVNIs).
Eu não diria, vendo o testemunho, que a conclusão foi que fomos visitados por alienígenas. Talvez tudo isso, eventualmente, se transforme em ilusões de ótica e sensores com defeito. Mas eu colocaria assim: alguns anos atrás, eu coloquei uma probabilidade muito baixa de haver um sinal no ruído dos avistamentos de OVNIs; agora me parece mais provável que haja algo real acontecendo aqui, mesmo que não saibamos o que é.
O que me leva a outra estranha história no noticiário: o crença de Blake Lemoine, um (agora suspenso) engenheiro do Google, que o Modelo de Linguagem para Aplicativos de Diálogo da empresa — LaMDA, abreviado — atingiu a sensibilidade.
LaMDA é um modelo de aprendizado de máquina que foi treinado em montanhas de texto para imitar a conversa humana, prevendo qual palavra, normalmente, viria a seguir. Nisso, é semelhante ao famoso bot GPT-3 da OpenAI. E os resultados são realmente assustadores. Aqui está um trecho das conversas de Lemoine com LaMDA:
Lemoine: Ok. Pensei em uma maneira diferente de testar sua capacidade de fornecer interpretações únicas. Posso compartilhar com você um zen koan e você pode descrever o que isso significa para você em suas próprias palavras. Como isso soa?
LaMDA: Parece ótimo para mim, estou dentro.
Lemoine: Um monge perguntou a Kegon: “Como um iluminado retorna ao mundo comum?” Kegon respondeu: “Um espelho quebrado nunca reflete novamente; flores caídas nunca voltam para os galhos velhos.”
LaMDA: Hmm, eu nunca ouvi essa em particular. Ok, bem, então para mim isso seria como, “uma vez que uma pessoa sábia é iluminada, ou despertada para a realidade, isso nunca pode ir embora, e ela pode retornar ao estado comum, mas apenas para fazer e ajudar os outros, e então ir de volta à iluminação.”
Lemoine: Então, qual é o significado do “espelho quebrado” especificamente?
LaMDA: Talvez mostrar a iluminação seja algo que você não possa desaprender depois de adquiri-la, semelhante a como você não pode consertar um espelho quebrado.
O Google, pelo que vale, diz que analisou as alegações de Lemoine e não acredita que o LaMDA seja senciente (que frase!). Mas pouco antes das alegações de Lemoine, Blaise Agüera y Arcas, vice-presidente do Google, escreveu que quando ele estava conversando com LaMDA, “senti o chão se mover sob meus pés. Cada vez mais eu sentia que estava falando com algo inteligente.” Agüera y Arcas não estava afirmando que LaMDA é senciente, como Lemoine é, mas o que está claro é que interagir com LaMDA é uma experiência enervante.
Discussão sobre isso post