IA: como a tecnologia está alimentando mal-entendidos

Em janeiro de 2021, o laboratório de pesquisa em inteligência artificial OpenAI lançou uma versão limitada de um software chamado Dall-E. O software permitia que os usuários digitassem uma descrição simples de uma imagem que tinham em mente e, após uma breve pausa, o software fornecia uma interpretação quase assustadoramente boa de sua proposta, digna de um ilustrador contratado ou designer experiente em Adobe - mas muito mais rápido e gratuito. Digitar, por exemplo, "um porco com asas voando sobre a lua ilustrado por Antoine de Saint-Exupéry" resultou após um ou dois minutos de processamento em algo que lembra os pincéis de aquarela manchados, mas reconhecíveis, do criador de O Pequeno Príncipe.

 

Capturas de tela AI DALL-E


Cerca de um ano depois, quando o software foi lançado mais amplamente, a internet foi à loucura. A mídia social foi inundada com todos os tipos de criações bizarras e maravilhosas, uma miscelânea transbordante de fantasias e estilos artísticos. E alguns meses depois aconteceu de novo, dessa vez com voz e um produto chamado ChatGPT, também produzido pela OpenAI. Peça ao ChatGPT para criar uma sinopse do Livro de Jó no estilo poeta Allen Ginsberg e isso forneceria uma tentativa razoável em questão de segundos. Peça-lhe para traduzir o poema "Uivo" de Ginsberg na forma de uma apresentação de slides de um consultor de negócios, e ele o fará. A capacidade desses programas de evocar novos e estranhos mundos em palavras e imagens encantou o público, e o desejo

A última habilidade passou a ser conhecida como "engenharia imediata": a técnica de formular as instruções de alguém em termos que sejam mais claramente compreendidos pelo sistema, de modo que ele retorne os resultados que correspondam mais de perto - ou talvez excedam - as expectativas. Os comentaristas de tecnologia foram rápidos em prever que em um futuro sem código, a engenharia imediata se tornaria uma descrição de trabalho cobiçada e bem remunerada, onde a maneira mais poderosa de interagir com sistemas inteligentes seria por meio da linguagem humana. Não precisaríamos mais ser capazes de desenhar ou escrever código de computador: simplesmente sussurraríamos nossos desejos na máquina e ela faria o resto. Os limites das criações de IA seriam os limites de nossa própria imaginação.

Imitadores Dall-E e outros desenvolvimentos seguiram-se rapidamente. O Dall-E mini (mais tarde renomeado como Craiyon) deu aos não convidados para os serviços privados da OpenAI a chance de brincar com uma ferramenta semelhante, menos poderosa, mas ainda muito impressionante. Enquanto isso, a empresa comercial independente Midjourney e o programa de código aberto Stable Diffusion usaram uma abordagem diferente para classificar e gerar imagens para atingir essencialmente os mesmos objetivos. Em poucos meses, o campo evoluiu rapidamente para vídeos curtos e geração de modelos 3D, com novas ferramentas surgindo diariamente de departamentos acadêmicos e programadores amadores, bem como dos gigantes estabelecidos da mídia social e agora da IA: Facebook (também conhecido como Meta). , Google, Microsoft e outros. Um novo campo de pesquisa, software e competição se abriu.

O nome Dall-E conecta o robô protagonista do Wall-E da Disney com o surrealista espanhol Salvador Dalí. Por um lado, você tem o personagem de uma pequena máquina ousada, autônoma e amável que varre os destroços de uma civilização humana em colapso e, por outro lado, um homem cujo gracejo mais comum é: "Aqueles que nada buscam para imitar não produzem nada. " e "O importante é criar confusão, não removê-la." Ambos são homônimos admiráveis para a ampla gama de ferramentas que passaram a ser conhecidas como geradores de imagens de IA.

A nova onda de IA do consumidor

No ano passado, essa nova onda de IA do consumidor, abrangendo geração de imagens e ferramentas como o ChatGPT, capturou a imaginação de todos. Também aumentou a sorte de grandes empresas de tecnologia que, apesar de muitos esforços, não conseguiram convencer a maioria de nós de que blockchain ou realidade virtual (“o metaverso”) é o futuro que todos queremos. Pelo menos este parece divertido por cinco minutos ou mais; e "AI" ainda tem aquela qualidade cintilante de ficção científica, reminiscente de robôs gigantes e cérebros sobre-humanos, que oferece aquela pequena exposição ao verdadeiramente novo. Claro, o que está acontecendo sob o capô não é nada novo.

Não houve grandes avanços na disciplina acadêmica de inteligência artificial por várias décadas. A tecnologia subjacente das redes neurais - um método de aprendizado de máquina baseado em como o cérebro físico funciona - foi teorizada e até mesmo colocada em prática já na década de 1990. Mesmo assim, você poderia criar imagens com ele, mas eram principalmente abstrações sem forma, bolhas de cor com pouca ressonância emocional ou estética. Os primeiros chatbots de IA convincentes estão ainda mais atrás. Em 1964, Joseph Weizenbaum, um cientista da computação do Massachusetts Institute of Technology, desenvolveu um chatbot chamado Eliza. Eliza foi modelada a partir de uma psicoterapeuta "centrada na pessoa": tudo o que você dissesse seria refletido de volta para você.

Os primeiros AIs não sabiam muito sobre o mundo, e os departamentos acadêmicos não tinham o poder de computação para usá-lo em larga escala. A diferença hoje não está na inteligência, mas nos dados e no poder. As grandes empresas de tecnologia passaram 20 anos coletando grandes quantidades de dados da cultura e da vida cotidiana, construindo enormes centros de dados famintos por energia, repletos de computadores cada vez mais poderosos para processá-los. O que antes eram velhas redes neurais se tornaram superpoderes, e o aumento da IA que estamos vendo é o resultado.

A geração de imagens AI depende da compilação e análise de milhões e milhões de imagens marcadas; Ou seja, imagens que já vêm com algum tipo de descrição de seu conteúdo. Essas imagens e descrições são então processadas por redes neurais, que aprendem a associar qualidades específicas e profundamente diferenciadas da imagem - formas, cores, composições - com palavras e frases específicas. Essas qualidades são então sobrepostas umas às outras para criar novos arranjos de forma, cor e composição com base nos bilhões de associações de pesos diferentes geradas por um simples prompt. Mas de onde vieram todas essas imagens originais?

Os conjuntos de dados publicados pela LAION, uma organização alemã sem fins lucrativos, são um bom exemplo do tipo de coleção de texto-imagem usada para treinar grandes modelos de IA (eles formaram a base do Stable Diffusion e do Imagen do Google). Por mais de uma década, outra organização web sem fins lucrativos, a Common Crawl, indexou e armazenou tanto da World Wide Web pública quanto pode acessar, arquivando até 3 bilhões de páginas por mês. Os pesquisadores do LAION pegaram uma parte dos dados do Common Crawl e extraíram cada imagem com uma tag "alt", uma linha de texto ou algo a ser usado para descrever imagens em páginas da web.

artista digital chamado Lapine
 
Em setembro de 2022, um artista digital de San Francisco chamado Lapine usou uma ferramenta chamada Have I Been Trained, que permite aos artistas ver se seu trabalho está sendo usado para treinar modelos de imagem de IA. Have I Been Trained foi criado pelos artistas Mat Dryhurst e Holly Herndon, cujo próprio trabalho os levou a explorar as maneiras pelas quais o trabalho dos artistas está sendo cooptado pela IA. Quando Lapine o usou para pesquisar o banco de dados LAION, ela encontrou uma imagem de seu próprio rosto. Ela conseguiu rastrear esta imagem para fotos tiradas por um médico durante o tratamento de uma condição genética rara. As fotos foram tiradas como parte de sua documentação clínica e ela assinou documentos que restringiam seu uso apenas a seus registros médicos. O médico envolvido morreu em 2018. De alguma forma, essas imagens médicas privadas acabaram online, depois no arquivo Common Crawl e no conjunto de dados do LAION, e finalmente entraram nas redes neurais enquanto aprendiam o significado das imagens e a criação de novas imagens. Pelo que sabemos, a textura rosa manchada de nosso porquinho estilo Saint-Exupéry, por mais sutil que seja, poderia ter sido misturada com a carne crua de um paciente com câncer.

Porquinho estilo Saint-Exupéry

“É o equivalente digital de obter propriedade roubada. Alguém roubou a foto dos arquivos do meu falecido médico e acabou na internet em algum lugar, e então foi raspada neste registro ", disse Lapine à Ars Technica. "É ruim o suficiente que uma foto tenha vazado, mas agora faz parte de um produto . E isso vale para todas as fotos, prontuários ou não. E o potencial para abuso futuro é muito alto." (De acordo com sua conta no Twitter, Lapine continua a usar ferramentas como Dall-E para fazer sua própria arte.)

Todo esse tipo de IA publicamente disponível, seja com imagens ou palavras, e os muitos aplicativos orientados a dados desse tipo são baseados nessa vasta apropriação da cultura existente, cuja extensão mal podemos compreender. Público ou privado, legal ou não, a maioria dos textos e imagens reunidas por esses sistemas estão no domínio nebuloso do "uso justo" (permitido nos EUA, mas questionável, se não totalmente ilegal na UE). Como na maioria das operações em redes neurais avançadas, é realmente impossível entender como elas funcionam de fora, exceto em encontros raros como o de Lapine.   Mas podemos ter certeza:  os resultados desse tipo de IA estão longe de serem mágicos,

IA própria ART

A geração de imagem e texto de IA é pura acumulação primitiva:  expropriar o trabalho de muitos para enriquecer e promover algumas empresas de tecnologia do Vale do Silício e seus proprietários bilionários. Essas empresas ganharam dinheiro intrometendo-se em todos os aspectos da vida cotidiana, incluindo as áreas mais pessoais e criativas de nossas vidas: nossas paixões secretas, nossas conversas particulares, nossas semelhanças e nossos sonhos. Eles cercaram nossa imaginação da mesma forma que proprietários de terras e barões ladrões cercaram terras comuns. Eles prometeram que, ao fazer isso, abririam novos domínios da experiência humana, nos dariam acesso a todo o conhecimento humano e criariam novos tipos de conexões humanas.

A estranheza da imagem de IA é tanto de saída quanto de entrada. Um usuário tentou digitar expressões sem sentido e ficou confuso e um pouco desconfortável ao descobrir que o Dall-E mini parecia ter uma ideia muito boa do que era um "Crungus": uma expressão desconhecida que consistentemente apresentava imagens de um ogro nu rosnando. -like figura produzida. Crungus estava tão claro na imaginação do programa que poderia ser facilmente manipulado: outros usuários foram rápidos em oferecer imagens de antigas tapeçarias Crungus, mosaicos Crungus em estilo romano, pinturas a óleo de Crungus, fotos de Crungus abraçando várias celebridades e, este é o internet, em , "sexy" Crungus.

Então, quem ou o que é Crungus? Os usuários do Twitter foram rápidos em apelidá-lo de "o primeiro criptídeo da IA", uma criatura como o Pé Grande que, neste caso, existe no terreno pouco explorado da imaginação da IA. E essa é a resposta mais clara que podemos obter neste ponto, dada nossa compreensão limitada de como o sistema funciona. Não podemos examinar seus processos de tomada de decisão porque a maneira como essas redes neurais "pensam" é inerentemente desumana. É o produto de uma ordenação matemática incrivelmente complexa do mundo, em oposição à maneira histórica e emocional como as pessoas ordenam seu pensamento. O Crungus é um sonho que emerge do modelo de mundo da IA, composto por bilhões de referências, que escaparam de sua origem e se fundiram em uma figura mitológica desvinculada da experiência humana. Qual é bom, até mesmo incrível - mas levanta a questão, de quem são os sonhos que estamos desenhando aqui? Que composição da cultura humana, que perspectiva sobre ela, criou esse pesadelo?

Uma experiência semelhante foi vivida por outro artista digital que estava experimentando prompts negativos, uma técnica para criar o que o sistema vê como o oposto do que está sendo descrito. Quando o artista inseria "Brando::-1", o sistema retornava o que parecia um logotipo de uma empresa de videogames chamada DIGITA PNTICS. Que isso possa ser o oposto de Marlon Brando nas múltiplas dimensões da visão de mundo do sistema parece bastante razoável. Mas quando eles verificaram que era o contrário digitando "DIGITA PNTICS skyline logo::-1", algo muito mais estranho aconteceu: todas as imagens mostravam uma mulher de aparência sinistra com olhos fundos e bochechas coradas, a quem o artista apelidou de Loab. uma vez descoberto, Loab parecia incomum e perturbadoramente persistente. Realimentando a imagem no programa,

Aqui está uma explicação para Loab e possivelmente Crungus: embora seja muito, muito difícil imaginar como a imaginação da máquina funciona, é possível imaginá-la tendo uma forma. Essa forma nunca será suave ou perfeitamente arredondada, mas terá vales e picos, montanhas e vales, áreas de informações ricas e áreas que carecem de muitos recursos. Essas áreas de alto conteúdo informacional correspondem a redes de associação sobre as quais o sistema "sabe" muito. Pode-se imaginar que as regiões relacionadas a rostos humanos, carros e gatos, por exemplo, sejam bastante densas dada a distribuição das imagens encontradas ao examinar toda a Internet.

Um gerador de imagens de IA dependerá mais dessas regiões ao criar suas imagens. Mas há outros lugares menos visitados que entram em jogo quando sugestões negativas - ou frases realmente sem sentido - são empregadas. Para responder a tais indagações, a máquina deve recorrer a conexões mais esotéricas e menos seguras, talvez até inferindo o contrário da totalidade de seu conhecimento. Aqui no interior encontram-se Loab e Crungus.

Essa é uma teoria satisfatória, mas levanta algumas questões desconfortáveis sobre por que Crungus e Loab são assim; por que se inclinam para o horror e a violência, por que insinuam pesadelos. Os geradores de imagens de IA parecem ter recriado até mesmo nossos medos mais sombrios em sua tentativa de entender e replicar toda a cultura visual humana. Talvez isso seja apenas um sinal de que esses sistemas são realmente muito bons em imitar a consciência humana, até os horrores que espreitam nas profundezas da existência: nosso medo da sujeira, da morte e da corrupção. E se assim for, devemos reconhecer que estes serão componentes permanentes das máquinas que construímos à nossa imagem. Não há como escapar de tais obsessões e perigos, sem moderar ou afastar a realidade da existência humana.

Isso é importante porque os geradores de imagens de IA farão o que todas as tecnologias anteriores fizeram, mas também irão além. Eles reproduzirão os vieses e preconceitos de quem os criou, como as webcams que só reconhecem rostos brancos ou os sistemas policiais preditivos que cercam bairros de baixa renda. E eles vão melhorar o jogo também: a escala de desempenho da IA muda do reino estreito dos quebra-cabeças e desafios - jogar xadrez ou Go ou seguir as regras de trânsito - para o reino muito mais amplo da imaginação e da criatividade.

Embora as alegações de "criatividade" da IA possam ser exageradas - não há verdadeira originalidade na geração de imagens, apenas imitação e mímica muito habilidosas - isso não significa que ela seja incapaz de realizar muitas tarefas "artísticas" comuns, há muito consideradas reservadas a pessoas habilidosas. trabalhadores, de ilustradores e designers gráficos a músicos, cinegrafistas e até escritores. Essa é uma grande mudança. A IA agora está envolvida com a experiência subjacente de sentimentos, emoções e humores, e isso permitirá que ela molde e afete o mundo em níveis cada vez mais profundos e atraentes.

IA e criatividade humana podem interagir

Introduzido pela OpenAI em novembro de 2022, o ChatGPT continuou a transformar nossa compreensão de como a IA e a criatividade humana podem interagir. Estruturado como um chatbot - um programa que imita a conversa humana - o ChatGPT pode fazer muito mais do que uma conversa. Quando solicitado, ele é capaz de escrever código de computador funcional, resolver problemas matemáticos e imitar tarefas de escrita comuns, desde resenhas de livros a trabalhos acadêmicos, discursos de casamento e contratos jurídicos.

Ficou imediatamente claro como o programa poderia ser uma benção para quem tem dificuldade em escrever e-mails ou redações, por exemplo, mas também como poderia ser usado, como geradores de imagens, para substituir aqueles que vivem dessas tarefas. Muitas escolas e universidades já introduziram políticas proibindo o uso do ChatGPT em meio a temores de que os alunos o usem para escrever suas redações, enquanto a revista acadêmica Nature teve que publicar políticas explicando por que o programa não é considerado uma pesquisa realizada pelo autor (não pode haver consentimento e não pode ser responsabilizado). Mas as próprias instituições não estão imunes ao uso inapropriado da ferramenta: em fevereiro, o Peabody College for Education and Human Development, parte da Vanderbilt University no Tennessee, estudantes chocados quando emitiu uma carta de condolências e conselhos após um tiroteio em uma escola de Michigan. Embora a carta falasse do valor da comunidade, respeito mútuo e união, uma nota no final indicava que foi escrita pelo ChatGPT - que parecia moralmente errado e de alguma forma errado ou assustador para muitos. Parece haver muitas áreas da vida em que a intervenção da máquina requer um pensamento mais profundo. respeito mútuo e união, uma nota no final afirmava que foi escrita por ChatGPT - que parecia moralmente errado e de alguma forma errado ou assustador para muitos. Parece haver muitas áreas da vida em que a intervenção da máquina requer um pensamento mais profundo. respeito mútuo e união, uma nota no final afirmava que foi escrita por ChatGPT - que parecia moralmente errado e de alguma forma errado ou assustador para muitos.

Se fosse inapropriado substituir toda a nossa comunicação pelo ChatGPT, então uma clara tendência é que ele esteja se tornando uma espécie de assistente inteligente, guiando-nos através do pântano de conhecimento disponível até a informação que procuramos. A Microsoft foi pioneira nessa direção, reconfigurando seu frequentemente desprezado mecanismo de busca Bing como um chatbot com ChatGPT, aumentando assim maciçamente sua popularidade. Mas, apesar da pressa online (e jornalística) de consultar o ChatGPT sobre quase qualquer assunto imaginável, sua relação com o conhecimento em si é um tanto quanto instável.

Uma recente interação cara a cara com o ChatGPT foi assim. Pedi a ela que sugerisse alguns livros para eu ler com base em uma nova área de interesse: democracia multiespécie, a ideia de envolver criaturas não humanas na tomada de decisões políticas. É praticamente o aplicativo mais útil da ferramenta: "Ei, aqui está algo em que estou pensando, você pode me contar mais?" e ChatGPT obriga. Ele me deu uma lista de vários livros que exploraram essa nova área de interesse em profundidade e explicou em uma linguagem humana convincente por que eu deveria lê-los. Isso foi incrível! No entanto, apenas um dos quatro livros listados realmente existe, e alguns dos conceitos que eu acho que o ChatGPT deveria explorar mais,

Bem, isso não aconteceu porque o ChatGPT é de direita por natureza. É porque é inerentemente estúpido. Ele leu a maior parte da internet e sabe como a fala humana deve soar, mas não tem relação com a realidade. São frases de sonho que parecem certas e, honestamente, ouvi-lo falar é tão interessante quanto ouvir os sonhos de alguém. É muito bom em produzir o que parece fazer sentido, e melhor em produzir os clichês e banalidades que compõem a maior parte de sua dieta, mas permanece incapaz de se relacionar significativamente com o mundo como ele realmente é. Desconfie de quem finge que isso é um eco ou mesmo uma aproximação da consciência. (Quando esta peça estava prestes a ser lançada,

Acreditar que esse tipo de IA seja realmente conhecedor ou significativo é ativamente perigoso. Existe o risco de envenenar o poço do pensamento coletivo e nossa capacidade de pensar. Se, como sugerido por empresas de tecnologia, os resultados das consultas do ChatGPT forem fornecidos como respostas para quem busca conhecimento online, e se, como sugerido por alguns comentaristas, o ChatGPT for usado em sala de aula como uma ferramenta de ensino, então as alucinações estarão em entrar no registro permanente, colocando-se efetivamente entre nós e fontes de informação mais legítimas e verificáveis, até que a linha entre os dois se torne tão tênue que se torne invisível. Além disso, nossa capacidade como indivíduos de explorar e avaliar criticamente o conhecimento em nosso próprio nome nunca foi tão necessária, até pelos danos que as empresas de tecnologia já causaram na forma como as informações são disseminadas. Colocar toda a nossa confiança nos sonhos de máquinas mal programadas seria desistir completamente desse pensamento crítico.


 As tecnologias de IA também são ruins para o planeta. Treinar um único modelo de IA - de acordo com um estudo publicado em 2019 - poderia emitir o equivalente a mais de 284 toneladas de dióxido de carbono, o que é quase cinco vezes a vida útil inteira de um carro americano médio, incluindo sua fabricação. Prevê-se que essas emissões aumentem em quase 50% nos próximos cinco anos, à medida que o planeta continua a aquecer, acidificando os oceanos, provocando incêndios florestais, desencadeando supertempestades e levando espécies à extinção. É difícil imaginar algo totalmente estúpido do que a inteligência artificial como é praticada hoje.

Então, vamos dar um passo atrás. Se essas encarnações atuais de "inteligência" "artificial" são tão chatas, quais são as alternativas? Podemos imaginar tecnologias poderosas para classificar e comunicar informações que não nos explorem, abusem, engane e nos substituam? Sim, podemos - assim que sairmos das redes de poder corporativas que definem a atual onda de IA.

Na verdade, já existem exemplos de uso da IA para beneficiar comunidades específicas, contornando o poder arraigado das corporações. As línguas indígenas estão sob ameaça em todo o mundo. A ONU estima que um desaparece a cada duas semanas, e com esses desaparecimentos vêm gerações de conhecimento e experiência. Esse problema, resultado de séculos de colonialismo e políticas de assimilação racista, é exacerbado pelo crescente domínio de modelos de linguagem de aprendizado de máquina, que garantem que as línguas populares aumentem seu poder enquanto línguas menos conhecidas são roubadas de sua fama e experiência.

Em Aotearoa, Nova Zelândia, uma pequena estação de rádio sem fins lucrativos que transmite na língua Māori chamada Te Hiku Media decidiu abordar essa discrepância entre como diferentes idiomas são representados na tecnologia. Seu vasto arquivo de mais de 20 anos de transmissões, representando uma ampla gama de expressões idiomáticas, gírias e idiomas únicos, muitos dos quais não são mais falados por ninguém, foi digitalizado, mas teve que ser transcrito para ser útil para linguistas e pesquisadores da linguagem. a comunidade Māori. Em resposta, a estação de rádio decidiu treinar seu próprio modelo de reconhecimento de fala para poder "escutar" seu arquivo e criar transcrições.

Nos anos seguintes, usando tecnologias de código aberto, bem como sistemas internos, a Te Hiku Media conseguiu o quase impossível: um sistema de reconhecimento de fala em língua Māori de alta precisão, construído e de propriedade de sua própria comunidade linguística. Foi mais do que uma despesa de software. A estação contatou todos os grupos da comunidade Māori que pôde encontrar e pediu-lhes que se gravassem falando declarações pré-escritas para fornecer um corpus de discursos anotados, um requisito para treinar seu modelo.

Houve um prêmio em dinheiro para quem enviasse mais sentenças – um ativista, Te Mihinga Komene, gravou 4.000 sentenças sozinho – mas os organizadores descobriram que a maior motivação para os contribuidores era uma visão compartilhada de reviver a língua e eles ao mesmo tempo possuídos por a comunidade. Em semanas, criou um modelo que reconhecia a fala gravada com uma precisão de 86% - mais do que suficiente para começar a transcrever todo o seu arquivo.

A realização da Te Hiku Media abriu o caminho para outros grupos indígenas, que agora estão realizando projetos semelhantes pelos povos mohawk do sudeste do Canadá e havaianos nativos. Também estabeleceu o princípio da soberania dos dados em relação às línguas indígenas e, portanto, também a outras formas de conhecimento indígena. À medida que as empresas internacionais com fins lucrativos começaram a recorrer aos falantes de maori para ajudar a construir seus próprios modelos, a Te Hiku Media fez campanha contra esses esforços, argumentando: “Eles suprimiram nossos idiomas e os arrancaram fisicamente de nossos avós e agora querem vender nossos linguagem de volta para nós como um serviço.”


"Os dados são a última fronteira da colonização", escreveu Keoni Mahelona, um havaiano nativo e um dos cofundadores da Te Hiku Media. Todo o trabalho de Te Hiku é liberado sob o que é conhecido como Licença Kaitiakitanga, uma garantia legal de tutela e custódia que garante que todos os dados que entraram no modelo de linguagem e outros projetos permaneçam de propriedade da comunidade que os criou – neste caso , os falantes de Māori que ofereceram sua assistência - e eles podem ou não licenciá-los como bem entenderem de acordo com seu tikanga (costumes e protocolos Māori). Desta forma, a língua Māori está sendo revivida enquanto desafia e transforma os sistemas de colonialismo digital,

Acho que a lição da atual onda de "inteligência" "artificial" é que a inteligência é uma coisa ruim quando imaginada pelas corporações. Se a sua visão de mundo é aquela em que a maximização do lucro é o rei das virtudes e todas as coisas devem ser mantidas pelo padrão de valor do acionista, então é claro que suas expressões artísticas, imaginativas, estéticas e emocionais serão miseravelmente empobrecidas. Merecemos mais nas ferramentas que usamos, nas mídias que consumimos e nas comunidades em que vivemos, e só teremos o que merecemos quando pudermos dar o nosso melhor para participar disso. E também não deixe que eles o intimidem - eles realmente não são tão complicados.   Ursula K. Le Guin   escreveu: "A tecnologia é o que podemos aprender."

 

 

 

Enviar um comentário

0Comentários
Enviar um comentário (0)

#buttons=(Accept !) #days=(20)

Nosso site usa cookies para melhorar sua experiência. Saiba mais
Accept !