Há uns dias, participei de uma discussão bem interessante aqui no LinkedIn sobre o fato de alguma escolas proibirem (e até usarem ferramentas pra detectar o uso de) inteligência artificial, sob a alegação de que é plágio.
Eu fiquei pensando nisso e acabei lendo um artigo muito interessante na New Yorker de duas semanas atrás (https://bit.ly/3uEEXvs), que é o review de um livro sobre copyright que acaba de sair (Who Owns This Sentence?: A History of Copyrights and Wrongs, de David Bellos e Alexandre Montagu).
O processo de 'aprendizado' das ferramentas de inteligência artificial, e mais especificamente large language models, não é muito diferente do nosso próprio: elas usam suas referências de leitura (como nós) para criar e modificar o que foi absorvido, transformando em novas ideias. O que talvez nos incomode tanto é que ferramentas como o ChatGPT e Claude fazem esse processo (leitura > processamento > geração de ideias) de forma muito mais consistente e eficiente que a gente consegue.
No campo educacional, a IA tem o potencial de personalizar e melhorar a experiência de aprendizado. Mas professores e instituições devem estar atentos às questões de propriedade intelectual neste novo território.
Pra mim, o melhor trecho do artigo é (tradução livre, roubada do Claude):
"Algumas pessoas podem dizer que a IA está roubando o domínio público. Mas a IA está apenas fazendo o que eu faço quando escrevo um poema. Ela está revisando todos os poemas que encontrou e os usando para fazer algo novo. A IA apenas "lembra" de muito mais poemas do que eu poderia e faz novos poemas muito mais rápido do que eu jamais poderia. Eu não preciso de permissão para ler esses poemas mais antigos. Por que o ChatGPT precisaria? Estamos penalizando um chatbot por fazer o que todos os seres humanos fazem só porque o faz de forma mais eficiente? Se os resultados são banais, muitos poemas também o são. Deus sabe que os meus são."
Por um lado, a IA pode ajudar estudantes e professores a gerar conteúdo de maneira mais rápida e eficiente. Por outro, seu vasto "conhecimento" pode derivar de apropriação não autorizada da propriedade intelectual de terceiros.
Idealmente, as partes buscarão soluções com licenças e limites éticos. Mas o vácuo legal e os interesses financeiros tornam o futuro incerto. Enquanto os tribunais debatem, educadores devem estabelecer diretrizes sobre uso responsável da IA, considerando a integridade acadêmica e o espírito de "uso justo" das obras originais.
A tecnologia por si só não é boa nem má. Cabe a nós moldá-la para o bem maior. A IA tem o potencial de catalisar avanços na aprendizagem humana. Porém, sem supervisão ética, também pode corroer valores fundamentais do conhecimento, como a originalidade e o crédito às ideias alheias. Educação de qualidade requer uso consciente e crítico da IA, maximizando seus benefícios e mitigando riscos. Este será um dos grandes desafios para educadores e reguladores nos próximos anos.
Comments