“Temos que ser ousados e responsáveis ao mesmo tempo”, disse ele.
“A razão para ser ousado é que, em tantos domínios diferentes, a IA tem o potencial de ajudar as pessoas nas tarefas diárias e enfrentar alguns dos maiores desafios da humanidade – como a saúde, por exemplo – e fazer novas descobertas e inovações científicas e ganhos de produtividade. isso levará a uma prosperidade econômica mais ampla”.
Fará isso, acrescentou, “dando às pessoas em todos os lugares acesso à soma do conhecimento do mundo – em seu próprio idioma, em seu modo preferido de comunicação, via texto, fala, imagens ou código”, entregue por smartphone, pela televisão , rádio ou e-book. Muito mais pessoas poderão obter o melhor atendimento e as melhores respostas para melhorar suas vidas.
Mas também devemos ser responsáveis, acrescentou Manyika, citando várias preocupações. Primeiro, essas ferramentas precisam estar totalmente alinhadas com os objetivos da humanidade. Em segundo lugar, nas mãos erradas, essas ferramentas podem causar danos enormes, quer estejamos falando de desinformação, coisas perfeitamente falsificadas ou hacking. (Os bandidos são sempre os primeiros a adotar.)
Finalmente, “a engenharia está à frente da ciência até certo ponto”, explicou Manyika. Ou seja, mesmo as pessoas que constroem os chamados grandes modelos de linguagem subjacentes a produtos como ChatGPT e Bard não entendem totalmente como eles funcionam e a extensão total de seus recursos. Podemos projetar sistemas de IA extraordinariamente capazes, acrescentou ele, que podem mostrar alguns exemplos de aritmética, ou uma linguagem rara ou explicações de piadas, e que então podem começar a fazer muito mais coisas com apenas esses fragmentos surpreendentemente bem. Em outras palavras, ainda não entendemos completamente quantas coisas boas ou ruins esses sistemas podem fazer.
Portanto, precisamos de alguma regulamentação, mas precisa ser feita com cuidado e de forma iterativa. Um tamanho não serve para todos.
Por que? Bem, se você está mais preocupado com a China vencendo a América em IA, você quer turbinar nossa inovação em IA, não desacelerá-la. Se você deseja realmente democratizar a IA, convém abrir o código dela. Mas o código aberto pode ser explorado. O que o ISIS faria com o código? Então, você tem que pensar no controle de armas. Se você está preocupado com o fato de os sistemas de IA aumentarem a discriminação, as violações de privacidade e outros danos sociais divisivos, como fazem as redes sociais, você quer regulamentações agora.
Se você quiser aproveitar todos os ganhos de produtividade esperados que a IA gere, você precisa se concentrar na criação de novas oportunidades e redes de segurança para todos os paralegais, pesquisadores, consultores financeiros, tradutores e trabalhadores rotineiros que podem ser substituídos hoje e talvez advogados e programadores amanhã. Se você está preocupado que a IA se torne superinteligente e comece a definir seus próprios objetivos, independentemente do dano humano, você deseja interrompê-la imediatamente.
“Temos que ser ousados e responsáveis ao mesmo tempo”, disse ele.
“A razão para ser ousado é que, em tantos domínios diferentes, a IA tem o potencial de ajudar as pessoas nas tarefas diárias e enfrentar alguns dos maiores desafios da humanidade – como a saúde, por exemplo – e fazer novas descobertas e inovações científicas e ganhos de produtividade. isso levará a uma prosperidade econômica mais ampla”.
Fará isso, acrescentou, “dando às pessoas em todos os lugares acesso à soma do conhecimento do mundo – em seu próprio idioma, em seu modo preferido de comunicação, via texto, fala, imagens ou código”, entregue por smartphone, pela televisão , rádio ou e-book. Muito mais pessoas poderão obter o melhor atendimento e as melhores respostas para melhorar suas vidas.
Mas também devemos ser responsáveis, acrescentou Manyika, citando várias preocupações. Primeiro, essas ferramentas precisam estar totalmente alinhadas com os objetivos da humanidade. Em segundo lugar, nas mãos erradas, essas ferramentas podem causar danos enormes, quer estejamos falando de desinformação, coisas perfeitamente falsificadas ou hacking. (Os bandidos são sempre os primeiros a adotar.)
Finalmente, “a engenharia está à frente da ciência até certo ponto”, explicou Manyika. Ou seja, mesmo as pessoas que constroem os chamados grandes modelos de linguagem subjacentes a produtos como ChatGPT e Bard não entendem totalmente como eles funcionam e a extensão total de seus recursos. Podemos projetar sistemas de IA extraordinariamente capazes, acrescentou ele, que podem mostrar alguns exemplos de aritmética, ou uma linguagem rara ou explicações de piadas, e que então podem começar a fazer muito mais coisas com apenas esses fragmentos surpreendentemente bem. Em outras palavras, ainda não entendemos completamente quantas coisas boas ou ruins esses sistemas podem fazer.
Portanto, precisamos de alguma regulamentação, mas precisa ser feita com cuidado e de forma iterativa. Um tamanho não serve para todos.
Por que? Bem, se você está mais preocupado com a China vencendo a América em IA, você quer turbinar nossa inovação em IA, não desacelerá-la. Se você deseja realmente democratizar a IA, convém abrir o código dela. Mas o código aberto pode ser explorado. O que o ISIS faria com o código? Então, você tem que pensar no controle de armas. Se você está preocupado com o fato de os sistemas de IA aumentarem a discriminação, as violações de privacidade e outros danos sociais divisivos, como fazem as redes sociais, você quer regulamentações agora.
Se você quiser aproveitar todos os ganhos de produtividade esperados que a IA gere, você precisa se concentrar na criação de novas oportunidades e redes de segurança para todos os paralegais, pesquisadores, consultores financeiros, tradutores e trabalhadores rotineiros que podem ser substituídos hoje e talvez advogados e programadores amanhã. Se você está preocupado que a IA se torne superinteligente e comece a definir seus próprios objetivos, independentemente do dano humano, você deseja interrompê-la imediatamente.
Discussão sobre isso post