Wikipédia:Esplanada/geral/ChatGPT substituirá os caros wikipedistas (16mar2023)
ChatGPT substituirá os caros wikipedistas (16mar2023)
Pasmem, estou aqui testando a ferramenta, e ela é capaz de traduzir, expandir, encontrar referências e até mesmo criar esboços de páginas da wikipédia perfeitamente. Observem os resultados preliminares: Tradução Encontrando fontes, Encontrando fontes e Esboço criado. Oxidation3301 (discussão) 03h33min de 16 de março de 2023 (UTC)
- Só um adendo: os wikipedistas não são caros! Tanto é que são voluntários! Caro são os CEOs, CIOs, gerentes de projetos, engenheiros de software (ainda que criando interfaces porcamente como o fazem) rsrs AlfaTerion (discussão) 01h19min de 22 de março de 2023 (UTC)
- Podem não ser caros, mas alguns são "um barato"! YANGUASdiz!-fiz 20h49min de 22 de março de 2023 (UTC)
- hahahha, "alguns" nada, são muitos! AlfaTerion (discussão) 00h31min de 24 de março de 2023 (UTC)
- Podem não ser caros, mas alguns são "um barato"! YANGUASdiz!-fiz 20h49min de 22 de março de 2023 (UTC)
Dito de outra forma: duas banais traduções automáticas e duas pseudo-referênciações falsas, ambas revertidas e conta avisada. No primeiro caso a página nem sequer existia e era um site de dicas de decoração. No segundo, o texto da referência não tinha nada a ver com o texto do artigo. Este tópico mais parece trolling. JMagalhães (discussão) 09h52min de 16 de março de 2023 (UTC)
O ChatGPT é péssimo a encontrar fontes, e a criar conteúdo. É o clássico caso de excesso de confiança misturado com profunda ignorância. Mesmo citando fontes, só sabendo algo (muito) sobre o assunto poderá verificar que o conteúdo é correto. Acho que a ferramenta pode ser apropriada para resumir o conteúdo de fontes, como fiz aqui como experiência, mas não só verifiquei que o conteúdo gerado correspondia ao que a fonte dizia, como indiquei no resumo de edição que o texto foi gerado pelo ChatGPT. Acho que a comunidade deve criar recomendações sobre os usos permitidos e não permitidos de ferramentas de inteligência artificial para criação de conteúdo, antes que a situação saia do controle. Deve haver já dezenas ou centenas de edições no domínio principal com conteúdo gerado pelo ChatGPT e ferramentas similares sem termos maneira de controlar. GoEThe (discussão) 10h50min de 16 de março de 2023 (UTC)
- Há uns dias fiz um teste com o ChatGPT e dei-lhe a tarefa de criar uma introdução para este artigo. Repare-se que nem sequer era uma tarefa complicada, era só mesmo resumir. Mesmo assim, falhou miseravelmente, ao incluir informações falsas. Por exemplo, alegou que um dos pontos mais visitados do parque era um sítio que fica a quase 40km. JMagalhães (discussão) 10h57min de 16 de março de 2023 (UTC)
- Sim, no teste que eu fiz contando o tempo de rever o conteúdo, e wikificar, acaba por não compensar usar a ferramenta. Melhor fazer à maneira antiga e ainda vou aprendendo alguma coisa. GoEThe (discussão) 11h18min de 16 de março de 2023 (UTC)
- @JMagalhães:... Acabaste de jogar uma água fria no meu sonho de responder à criação dos milhares de artigos que faltam cá sobre a Chapada Diamantina! Oh, vida, oh, céus! he, he... André Koehne (discussão) 22h00min de 26 de março de 2023 (UTC)
Um robô procurando fontes... Uma tradução de artigo mínimo, e não consegue fazer isso bem. A primeira fonte nada tem a ver. Outra sequer cita o assunto. Imagina um artigo extenso, como ficaria. Como afirmam os estudiosos que preferem usar o cérebro, "a automação é o modo mais rápido de provocar desastres".--PauloMSimoes (discussão) 13h13min de 16 de março de 2023 (UTC)
Eu fiz testes semelhantes e também obtive resultado medíocre. Precisão não é o forte do ChatGPT. Pode ser que num futuro próximo, até exista uma ferramenta de IA capaz de construir verbetes em qualquer língua, mas o que há no momento não serve para isso. É curioso como ele erra feio até questões aritméticas simples. Lechatjaune msg 13h24min de 16 de março de 2023 (UTC)
acho que deveria ser proibido o uso na wiki e o quanto antes devemos incluir uma nota de advertência nas páginas de ajuda e em nossas políticas de edição.Tetraktys (discussão) 13h34min de 16 de março de 2023 (UTC)
Comentário - Alegadamente já existem utilizadores a utilizarem essa ferramenta para elaborar introduções ou partes de artigos. Qualquer utilizador que já se tenha dado ao trabalho de averiguar se aquilo realmente é o que dizem que é, saberá de certeza que pode escrever linhas de código minimalistas, cálculos minimalistas, mas é incapaz de realizar o que o cérebro humano realiza aqui na comunidade. Tem as uas vantagens sim, mas escrever material para uma enciclopédia não é uma delas, muito pelo contrário. Quem abriu este tópico demonstra isso mesmo, e só tenho a agradecer por ter vindo aqui demonstrar o óbvio para que todos vejam. Preocupa-me é termos gente que anda a utilizar isso para inserir conteúdo em artigos. Já foram e continuar a ser desenvolvidas ferramentas que detectam se X texto foi redigido por um bot como o chatgpt, mas desconheço se essas ferramentas são de uso livre e acessíveis a qualquer um. Sem isso, tais edições só serão vistas como vandalismos normais... Luís Almeida "Tuga1143 14h31min de 16 de março de 2023 (UTC)
- Eis uma amostra da capacidade criativa do modelo de IA versando sobre poesia portuguesa: C:file:Chatgpt fernando pessoa.png. Lechatjaune msg 15h54min de 16 de março de 2023 (UTC)
O maior perigo de ferramentas como o ChatGPT é substituírem humanos... em particular donas de casa chinesas com imaginação prodigiosa, alguma cultura geral e imenso tempo livre. Eu imagino o destroço que já vai por aí, já que o texto produzido consegue ser bastante credível, sobretudo agora que lhe acrescentaram a fantástica capacidade de falsificar fontes. Recomendo tolerância zero para quem for caçado fazendo uso sem supervisão daquilo, facilmente reconhecíveis pelos sinais habituais - texto falso com falsa referenciação. No mínimo um dia de bloqueio, progredindo rapidamente para o banimento caso insista na gracinha.-- Darwin Ahoy! 00h03min de 17 de março de 2023 (UTC)
Tem que tomar cuidado com quem já tem acesso ao GPT-4. Skyshifter disc. 00h10min de 17 de março de 2023 (UTC)
Discordo de qualquer política proibindo ou limitando o uso da ferramenta, até porque é impossível aplicar, a não ser que os colegas julguem-se capazes de distinguir perfeitamente edições provindas de alguma ferramenta baseada em GPT, e, além disso, capazes de provar tal origem quando forem justificar alguma sanção. Fácil no caso do colega que diz publicamente estar usando, e o resto? Não vai diferir de edições de baixa qualidade e derivadas, para as quais já existem sanções. Discordo também de recomendar contra o uso. Nunca utilizei para alguma tarefa relacionada à wiki, mas para meu trabalho tem sido fantástico, uma ferramenta de auxílio que tem aumentado minha produtividade. Se até agora os colegas não encontraram uma forma boa de usar para fins ligados à wiki, nada impede que outros colegas encontrem aplicação legítima, ou que novas versões (como o GPT-4 mencionado acima, ou seus sucessores) provem-se capazes de realizar tarefas adequadas para a wiki. Saturnalia0 (discussão) 04h20min de 19 de março de 2023 (UTC)
- Caro Saturnalia0 Não estamos discorrendo sobre a eficácia da ferramenta em outras aplicações. Na Wikipédia, como se vê na maioria das opiniões, a prática parece ser temerária. Quando se cria um artigo de forma automática, e sem revisão, achando que foram resolvidos todas as dificuldades envolvidas em edição e pesquisa manuais, há o risco de não se estar a criar um conteúdo enciclopédico de qualidade, como se comprovou no exemplo colocado aqui, em que não há qualidade, nem no texto, nem nas referências. E citar a justificativa de que isso pode ser resolvido com o GPT-4 é uma conjectura que precisa ser avaliada ao seu tempo, não aqui.--PauloMSimoes (discussão) 11h28min de 19 de março de 2023 (UTC)
- Caro PauloMSimoes, se o artigo for criado com auxílio da ferramenta, mas com devida revisão, ainda deve ser barrado? E mais, como você via diferenciar a criação do artigo utilizando a ferramenta e não utilizando-a? Você sabe dizer - e mais, provar - que meus comentários aqui escritos foram totalmente escritos por mim, sem auxílio (mesmo que revisado) de alguma ferramenta? Repito, pois parece não ter entendido: conteúdo de baixa qualidade já é sancionado, independente se foi gerado por um ser humano incompetente, uma ferramenta inadequada, ou uma combinação de ambos. Não há necessidade de recomendação adicional, do contrário, é contraprodutiva, à medida que coíbe usos porventura corretos e benéficos. Saturnalia0 (discussão) 14h29min de 19 de março de 2023 (UTC)
- Aliás, minto! Esta edição minha foi auxiliada pelo ChatGPT. Saturnalia0 (discussão) 15h19min de 19 de março de 2023 (UTC)
- Caro PauloMSimoes, se o artigo for criado com auxílio da ferramenta, mas com devida revisão, ainda deve ser barrado? E mais, como você via diferenciar a criação do artigo utilizando a ferramenta e não utilizando-a? Você sabe dizer - e mais, provar - que meus comentários aqui escritos foram totalmente escritos por mim, sem auxílio (mesmo que revisado) de alguma ferramenta? Repito, pois parece não ter entendido: conteúdo de baixa qualidade já é sancionado, independente se foi gerado por um ser humano incompetente, uma ferramenta inadequada, ou uma combinação de ambos. Não há necessidade de recomendação adicional, do contrário, é contraprodutiva, à medida que coíbe usos porventura corretos e benéficos. Saturnalia0 (discussão) 14h29min de 19 de março de 2023 (UTC)
Opinião Eu concordo plenamente com o uso do GPT para artigos na Wikipédia, desde que o seu uso seja cuidadosamente revisado por um editor humano. Concordo com o usuário Saturnalia0, que defende essa abordagem como uma forma de otimizar o processo de criação de conteúdo, sem comprometer a qualidade e a precisão das informações apresentadas na plataforma. Skyshifter disc. 14h39min de 19 de março de 2023 (UTC)
- Este comentário foi escrito pelo ChatGPT. Skyshifter disc. 15h53min de 19 de março de 2023 (UTC)
Continuo a discordar do uso dessa ferramenta na criação de verbetes. Imaginem um artigo com centenas de referências defeituosas, como se constatou a ineficiência no exemplo. Para o editor preguiçoso acomodado que criou o monstrengo e não vai revisar, obviamente, é muito prático. Pode criar dezenas, centenas de verbetes. E depois...? Sobra pros trabalhadores braçais revisarem ? Revisar texto nem é tão dificil. Mas revisar dezenas, centenas de referências em artigos extensos e as corrigir exige um trabalho descomunal. A Wikipédia, que já peca e muito na confiabilidade, deve prezar pela qualidade e não em criar porcarias em grande escala.--PauloMSimoes (discussão) 15h25min de 19 de março de 2023 (UTC)
- Esse tipo de comportamento já é passível de sanção. Se um editor insiste em criar artigos com tais problemas - e não precisa chegar a cem nem a dez - será bloqueado de editar, independente se a causa dos problemas é o ChatGPT, o Google Translate, ou qualquer outra coisa. E se chegar a cem, todas edições podem ser revertidas em uma tacada, como já é feito com CPUs e fantocheiros. Saturnalia0 (discussão) 15h27min de 19 de março de 2023 (UTC)
- Esse não deve ser o espírito desta enciclopédia, criar facilidades para resultar em dificuldades em dobro.--PauloMSimoes (discussão) 15h36min de 19 de março de 2023 (UTC)
- Ninguém está criando facilidade alguma. Aliás, a proposta é precisamente não mudar nada. A ferramenta é só isso, uma ferramenta. Como o Google Translate, pode ser usado para traduzir porcamente um artigo inteiro, ou pode ser usado para auxiliar, afinal o inglês de todos não é perfeito. O que deve ser coibido (e já é!) é o fim - conteúdo de baixa qualidade, fora das políticas - e não os meios, que podem ser usados para outros fins. Mais do que isso, é impossível distinguir os meios utilizados, portanto mesmo que coíbam, não é aplicável na prática. Saturnalia0 (discussão) 15h42min de 19 de março de 2023 (UTC)
- É exatamente isso. Diversas pessoas usam o Google Tradutor como ferramenta de auxílio, fazendo revisões humanas quando necessário. O GPT deve ser usado da mesma forma. Por exemplo, para fazer a introdução de um artigo, ou pegar o texto de uma fonte e pedir para resumir e parafrasear. Tudo isso sempre com as devidas revisões humanas se necessário. Skyshifter disc. 15h53min de 19 de março de 2023 (UTC)
- Ninguém está criando facilidade alguma. Aliás, a proposta é precisamente não mudar nada. A ferramenta é só isso, uma ferramenta. Como o Google Translate, pode ser usado para traduzir porcamente um artigo inteiro, ou pode ser usado para auxiliar, afinal o inglês de todos não é perfeito. O que deve ser coibido (e já é!) é o fim - conteúdo de baixa qualidade, fora das políticas - e não os meios, que podem ser usados para outros fins. Mais do que isso, é impossível distinguir os meios utilizados, portanto mesmo que coíbam, não é aplicável na prática. Saturnalia0 (discussão) 15h42min de 19 de março de 2023 (UTC)
- Esse não deve ser o espírito desta enciclopédia, criar facilidades para resultar em dificuldades em dobro.--PauloMSimoes (discussão) 15h36min de 19 de março de 2023 (UTC)
Uso o Google Translate nas traduções. É um bom ponto de partida e depois refinar a tradução. O problema do GPT é com relação às referências, como escrevi acima. Será um trabalho descomunal para detectar e consertar os problemas.--PauloMSimoes (discussão) 16h52min de 19 de março de 2023 (UTC)
- Tenta também este: https://www.deepl.com/pt-BR/translator. Acho melhor! Érico (disc.) 02h12min de 22 de março de 2023 (UTC)
- @Érico: Tentei mas não consegui traduzir a partir de um url (acho que precisa registro, não sei). Por exemplo, se eu copio o url do verbete de Pablo Neruda em inglês (https://en.wikipedia.org/wiki/Pablo_Neruda), colo no campo para traduzir no Google Translate e depois seleciono o link que aparece no campo da direita, o resultado é este. Até que a tradução foi razoável, não ? Além disso, não me parece ter havido erros nas referências. Não dá para publicar direto, e as ligações internas também são verbetes traduzidos. Então dá um certo trabalho adequar e publicar depois. Mas me dou por satisfeito. No caso do "deep1", considera que seja melhor, mesmo ?
Basta ver esta correção [Δ65496903] nas refs em um mísero verbete de alguns bites criado pelo GPT. E os erros (sutis) só foram detectados por causa desta discussão. É praticamente muito difícil detectar esse tipo de erro. De novo, imaginem centenas de verbetes com dezenas ou centenas de refs criados por essa ferramenta. Automação não é sinônimo de qualidade. A Wikipédia não precisa disso para criar verbetes.--PauloMSimoes (discussão) 17h03min de 19 de março de 2023 (UTC)
Comentário O problema do ChatGPT é incluir informações imprecisas ou falsas. No entanto, a ferramenta pode útil para superar o bloqueio criativo. Isto é, quando se tem a intenção de criar ou ampliar um artigo mas não se sabe bem por onde começar ou como resumir e estruturar a informação. Se o editor for responsável e confirmar se tudo o que o bot afirma é verificável, então pode ser um óptimo assistente de edição. O problema, claro está, é que apenas uma minoria é responsável. Está na cara que vão começar a aparecer em massa edições que são cópia e cola do ChatGTP sem qualquer verificação, principalmente por parte de contas novas.
Como se lida com isso? É complicado. Não se pode pura e simplesmente "proibir o chatGTP" porque a realidade é que ninguém consegue provar que o texto foi escrito com o chatGTP. O que se pode, isso sim, é começar a ser muito mais rígido e inflexível quando são detectadas falsidades. Nos exemplos dados pela conta que abriu esta discussão, eu não verifiquei as referências todas. Escolhi uma aleatoriamente, arranjei o livro em PDF e fui confirmar. O texto não tinha nada a ver com a fonte. É o suficiente para não só reverter e colocar em causa a fiabilidade de toda a edição, como também para colocar todas as edições dessa conta sob suspeita. Recomendo a todos que me sigam nesta abordagem. JMagalhães (discussão) 22h28min de 19 de março de 2023 (UTC)
Comentário Eu utilizei o ChatGPT para transformar rapidamente uma tabela de um artigo científico em um mapa no formato Wiki. O que levaria mais de duas horas e seria extremamente tedioso e sujeito a erros humanos foi realizado em questão de minutos, e eu conferi cada item para verificar se estava certo. Portanto, em alguns casos a ferramenta pode ser muito benéfica, desde que o produto seja verificado por um ser humano. Por isso, sou contra o banimento total da ferramenta. De qualquer forma, seu uso deve ser feito com cautela, e a verificação do produto final é fundamental para a qualidade. Mateussf (discussão) 18h51min de 21 de março de 2023 (UTC)
Comentário Eu tinha vontade de colocar esse assunto em pauta aqui também. Eu estava usando o Bing Chat, e ele parece ser bom em reescrever trechos. Eu só tenho dúvida se existe algum problema na questão de licenças ou se é necessário avisar que houve intervenção de IA na edição. Por exemplo, uma interação que eu tive:
Pedido de reescrita
|
---|
Minha mensagem para Bing Chat, usando trecho de Cabanagem em 16 de novembro de 2022
Bing Chat |
Deve-se ter em mente que as vezes várias tentativas são necessárias para corrigir problemas ou melhorar o texto (eu poderia pedir pra remover os índices de citação). A tecnologia também é capaz de fornecer fontes de afirmações (porque ela pesquisa no Bing a informação antes, diferente de ChatGPT), mas algumas vezes as fontes não são tão confiáveis (Toda Matéria e Brasil Escola) ou ele pode alucinar fontes, então a intervenção humana é sempre necessária com essas ferramentas. Existe algum impeditivo de usá-lo na Wikipédia em português? Algum problema de licença? --Luk3 discussão • contribs 20h50min de 23 de março de 2023 (UTC) --Luk3 discussão • contribs 20h50min de 23 de março de 2023 (UTC)
Comentário Em Cultura da ditadura militar brasileira, peguei alguns trechos das fontes e pedi para o ChatGPT parafrasear. Depois, coloquei eles no artigo de maneira organizada e li o texto do início ao fim, constatando que o texto fazia sentido, que condizia com as fontes e que de fato a paráfrase foi efetiva, descartando VDA. Pessoalmente, gostei bastante do resultado e, como eu tenho dificuldades com paráfrases, é uma ferramenta que certamente me auxiliará muito. Skyshifter disc. 17h57min de 24 de março de 2023 (UTC)
O que há de novo na Wikipédia em inglês?
|
---|
Colegas, resolvi realizar pesquisas com as entradas "Artificial Intelligence"; "Wikipedia"; "creating articles" para tentar descobrir como esse assunto está sendo tratado por lá. Apresento um compilado do que encontrei, que penso que merece destaque. A pesquisadora Angela Fan tem realizado um trabalho interessante sobre o uso de IA na criação de verbetes, principalmente de biografias de mulheres, cujo número já ultrapassou 1 500 verbetes. Alguns detalhes também interessantes podem ser vistos em Generating Wikipedia articles with AI e L’idea di Meta: migliorare le IA usando una IA per migliorare Wikipedia. Pelo que pude entender, ela utiliza uma metodologia que dá mais confiabilidade aos textos. Talvez, alguns conceitos aqui nesta discussão precisem se revistos (inclusive os meus), pois parece que a coisa ainda vai de fato evoluir. Abaixo, cito excertos do trabalho Citação: Há muitos esforços para incentivar a criação de artigos sobre mulheres, [...] como o projeto "Wikipedia Women in Red". No entanto, os artigos continuam a ser minuciosamente escritos e editados principalmente por uma rede de colaboradores humanos. Apesar dos avanços na geração de texto e arquiteturas de modelagem, que recuperam informações, a automação para criação de artigos da Wikipédia é incrivelmente desafiadora. Mesmo as funcionalidades de ferramentas que auxiliam os editores humanos são limitadas. Neste trabalho, nos esforçamos para criar um sistema que poderia escrever um artigo inteiro da Wikipédia em inglês, concentrando-se no domínio da biografia. Enfrentamos vários grandes desafios. [...] As biografias da Wikipédia contêm vários parágrafos de forma estruturada com títulos, bem como citações para indicar a origem da informação. Em segundo lugar, a tarefa enfrenta obstáculos quanto à factualidade, pois os artigos devem ser factualmente precisos. Terceiro, os artigos da Wikipédia são escritos baseados em referências, em geral encontradas na web. Assim, os modelos precisam encontrar e processar as pesquisas na web como pré-requisito para escrever biografias precisas. Desenvolvemos um método para a Wikipédia em inglês que começa com o assunto e ocupação na biografia, em seguida, aproveita a pesquisa na web para encontrar evidências relevantes. Dados os resultados da pesquisa, empregamos um método de recuperação por arquitetura de geração aumentada com base em pré-treinamento para identificar informações relevantes e escrever na biografia. Geramos seção por seção, usando um mecanismo de cache semelhante ao Transformer-XL [en] para fazer referência às seções anteriores e obter maior contexto em nível de documento. Por fim, após cada seção, acrescentamos uma citação baseada em que as pesquisas na web foram recuperadas. Quantificamos a qualidade da geração usando várias métricas automáticas gerais, como vinculação de ROUGE-L [en] [...] Além disso, estudamos a forte dependência do nosso método na recuperação precisa para projetar um conjunto de avaliação específica de dados, ação que se mostrou um grande desafio. Foram criadas 1 527 biografias sobre mulheres [..] Usamos esse conjunto de dados para comparar com a qualidade dos modelos (conjunto aleatório de biografias de avaliação). Por fim, realizamos uma avaliação humana em larga escala para medir a factualidade e cobertura das biografias geradas. Esperamos que nossas técnicas possam eventualmente ser usadas como ponto de partida para escritores humanos da Wikipédia, para biografias e outros. Agora, uma curiosidade que encontrei nas pesquisas. Empresas especializadas em criar comercialmente perfis na Wikipédia em inglês. Citação: Temos diferentes escritores que atendem diferentes partes de nossos serviços, um redator de conteúdo da Wikipedia cria seu rascunho e nossos serviços de edição da Wikipedia oferecem a você a oportunidade de observar a qualidade e as habilidades de nossos profissionais de redação on-line. Nossos escritores são treinados em todos os aspectos para escrever ou adicionar uma página da Wikipedia, uma vez que wiki para escritores é agora uma tendência popular, queremos escritores wiki competentes para contratar que forneçam aos nossos clientes os melhores serviços. Nossos escritores especializados de artigos da Wikipédia acham que escrever a Wikipédia é uma tarefa fácil! Eu nem imaginava que a coisa havia chegado a esse nível de profissionalismo. Para esses caras, certamente a IA será "uma mão na roda", não ?. |
tá podem me chamar de reacionário, mas vou dar mais uma reclamada. eu reconheço que a ferramente pode ter alguma utilidade como ponto de partida, e não vou negar que às vezes uso o google tradutor pra iniciar algum trabalho e posso até vir a usar o Chat (embora os testes que fiz tenham dado alguns resultados hilariantes, me deixando extremamente desconfiado), mas também queria assinalar que pessoalmente sinto o resultado um pouco frustrante pelo próprio processo utilizado. eu não fico mais feliz quando uso o Google, ao contrário, eu sinto que de certa forma fui derrotado, e não acho que ficarei mais feliz usando o Chat. me preocupa o fato de que cada vez estamos entregando mais e mais coisas para as máquinas fazerem. e me preocupa também essa eterna pressão por produtividade, produtividade, produtividade! é uma coisa febril, estressante, eu já nem tenho mais vontade de acompanhar essa revolução. acho que tudo isso concorre para a desumanização do conhecimento e para um empobrecimento do próprio espírito de cultura. produzindo resultados em larga medida mecânicos (embora possam ser bonitinhos e até corretos, esperando que a ferramenta seja melhorada com o tempo, como sem dúvida será), onde é que estamos metendo a alma da coisa? a nossa alma? a nossa sensibilidade? a nossa criatividade? o nosso estilo? a voz humana?
será que estamos fadados a nos tornarmos meros revisores de trabalho de máquinas? uma coisa é usarmos bots para corrigir links, fazer manutenção... mas produzir conteúdo? os experimentos que fiz (os melhores) produziram textos morninhos, limpinhos, clarinhos, ameninhos, com um "equilíbrio" geralmente falacioso entre prós e contras, sem estilo nenhum. em suma, um conteúdo plastificado, higienizado e pasteurizado, uma platitude olímpica. não é só isso. vi uma entrevista de um famoso historiador que usou o Chat para responder a várias perguntas, e ele apontou muitas falhas, não apenas erros factuais, mas, mais importante, falhas de omissão, de direção, de estruturação, de interpretação e de propósito. o resultado parecia muitas vezes bem plausível, como ele mesmo disse, mas no geral era pelo menos em parte enganoso. ou seja, nos orientarmos pelo Chat para criar a estrutura básica, mesmo pensando que depois vamos aparar as arestas, pode nos levar a cometer erros fundamentais que muito possivelmente passarão despercebidos, pois o mote não foi dado no início. o que eu pude entender disso tudo é que a máquina tira uma média da informação a que tem acesso e transforma essa média em texto, e me parece que é esse o problema central: um artigo não pode ser fruto de uma mera estatística. precisa planejamento e análise consciente desde sua primeira concepção até sua estruturação completa, a cada passo isso é necessário. a máquina pode fazer isso?
eu pedi pro Chat fazer um resumo da história da pintura brasileira. Não vou entrar no mérito da qualidade da resposta, mas quando perguntei de onde ele tira a informação, ele respondeu:
- “Eu sou um modelo de linguagem de grande escala treinado pela OpenAI, com acesso a uma vasta quantidade de informações disponíveis na internet e em livros, incluindo informações sobre a história da pintura brasileira. Meu conhecimento é baseado em dados e informações coletados de diversas fontes confiáveis, incluindo livros, enciclopédias, artigos de periódicos, sites de museus e outras fontes respeitáveis”.
mas quando pedi para ele fazer uma citação direta de uma obra que ele consultou para a pergunta específica que respondeu, ele mostrou não ser capaz. em vez, respondeu isso:
- “Meu treinamento envolve a consulta a diversas fontes, portanto, é difícil citar uma única fonte específica. No entanto, algumas das fontes que podem ter sido consultadas para fornecer informações sobre a história da pintura brasileira incluem:
- "História da Arte Brasileira: Uma Introdução" de Sheila Leirner
- "Pintura Brasileira Século XIX" de Gonzaga Duque
- "Arte no Brasil: Uma História" de Jorge Coli
- "História da Pintura Brasileira" de Walter Zanini
- "Modernidade Brasileira na Pintura" de Tadeu Chiarelli
- “Essas são algumas das fontes que podem ter sido utilizadas para fornecer informações sobre a história da pintura brasileira, mas é importante lembrar que minha resposta é baseada em um treinamento amplo e diversificado”.
então, de onde mesmo ele tirou a informação? não sabemos ao certo. como confiar numa coisa que se exime de responsabilidade? será que teve gente que alimentou ele mesmo com o conteúdo desses livros todos? ou será que simplesmente buscou títulos que poderiam ter o conteúdo adequado simplesmente porque os títulos mencionavam “pintura brasileira” ou “arte brasileira”? enfatizo o poderiam... bem no condicional....
e me parece evidente que esse processo em muito breve vai sair completamente do nosso controle. eu não me sinto animado com isso. será que estou apenas ficando velho e ranzinza? não sei, pode ser, mas tenho a incômoda sensação de que estamos nos deixando fascinar por uma promessa de progresso que me parece no mínimo dúbia e estamos perdendo coisas importantes no caminho. deixo aí esses pensamentos vagabundos. Tetraktys (discussão) 08h00min de 26 de março de 2023 (UTC)
- @Tetraktys até aonde eu sei, ChatGPT faz uso de tudo que ele leu até 2021, e cria sínteses a partir desse conteúdo. No fundo, ele funciona como se tivesse tentando adivinhar o que vem depois de cada palavra depois de ter treinado durante muitas e muitas horas.
- Já o Bing Chat faz uma pesquisa no Bing primeiro, e usa o resultado de busca como contexto pro ChatGPT pra escrever. Por causa disso ele tem capacidade de citar fontes na internet (mas ele também pode inventar coisas que não estão na fonte que citou).
- E sobre sua opinião sobre o assunto, eu compartilho muito de sua visão sobre isso. Precisa, mesmo que seja mínima, de uma intervenção humana, seja pra certificar da qualidade do conteúdo ou pra acrescentar as nuances que aproximam o leitor do conteúdo. Se não a Wikipédia vira um amontoado frio de afirmações.
- É curioso, que ao mesmo tempo também não queremos enviesar o texto. Mas a IA, treinada no conteúdo humano, vai também reproduzir o viés que temos que corrigir, pra evitar retroalimentar esse problema. Luk3 discussão • contribs 23h05min de 28 de março de 2023 (UTC)
- @Luk3: pois é, tudo isso. e pra piorar, não temos informação nenhuma sobre a curadoria das fontes que ele usa. no exemplo que dei acima, a obra citada como sendo de Gonzaga Duque não existe, pelo menos não encontrei nem uma única menção a ela. e mesmo se existisse, ninguém usaria esse autor pra escrever hoje sobre pintura brasileira, a não ser para saber como a crítica pensava no século XIX. se tu bota tudo no mesmo saco, só pode dar M**** pra piorar 2, não consegui verificar a existência de nenhum dos outros livros citados. ele inventou todas as fontes!!!! esse brinquedinho é uma fraude. e pra sossegar o desavisado, ele ainda tem a empáfia de dizer que "é importante lembrar que minha resposta é baseada em um treinamento amplo e diversificado", tipo, "se vc não concorda com a resposta, o burro é vc" kkkk Tetraktys (discussão) 01h11min de 29 de março de 2023 (UTC)
- O ChatGPT é um mecanismo de previsão da próxima palavra. Ele não realiza curadoria de fontes, ele não tem inteligência no sentido de saber do que está falando e qual fonte está citando. Tudo o que ele faz é tentar prever a próxima palavra. Existe um artigo bom no blog do Wolfram explicando em maiores detalhes do que essa minha simplificação tosca. Saturnalia0 (discussão) 02h54min de 29 de março de 2023 (UTC)
- @Saturnalia0: obrigado pela dica, bem instrutivo. agora não vou usar nunca mesmo kkk Tetraktys (discussão) 05h16min de 29 de março de 2023 (UTC)
- O ChatGPT é um mecanismo de previsão da próxima palavra. Ele não realiza curadoria de fontes, ele não tem inteligência no sentido de saber do que está falando e qual fonte está citando. Tudo o que ele faz é tentar prever a próxima palavra. Existe um artigo bom no blog do Wolfram explicando em maiores detalhes do que essa minha simplificação tosca. Saturnalia0 (discussão) 02h54min de 29 de março de 2023 (UTC)
- @Luk3: pois é, tudo isso. e pra piorar, não temos informação nenhuma sobre a curadoria das fontes que ele usa. no exemplo que dei acima, a obra citada como sendo de Gonzaga Duque não existe, pelo menos não encontrei nem uma única menção a ela. e mesmo se existisse, ninguém usaria esse autor pra escrever hoje sobre pintura brasileira, a não ser para saber como a crítica pensava no século XIX. se tu bota tudo no mesmo saco, só pode dar M**** pra piorar 2, não consegui verificar a existência de nenhum dos outros livros citados. ele inventou todas as fontes!!!! esse brinquedinho é uma fraude. e pra sossegar o desavisado, ele ainda tem a empáfia de dizer que "é importante lembrar que minha resposta é baseada em um treinamento amplo e diversificado", tipo, "se vc não concorda com a resposta, o burro é vc" kkkk Tetraktys (discussão) 01h11min de 29 de março de 2023 (UTC)
- Chat GPT pelo Iamarino, no YouTube; traz algumas ponderações interessantes, sobretudo sobre a questão das referências, do risco de viés e, mais adiante, da retroalimentação (com o uso da ferramenta - e de outras similares - na web, a I.A. pode vir a copiar a si mesma). Tenho, para poupar tempo, orientado seu uso no trabalho, mas em geral acabo revisando tudo pois, como o Átila narrou, o "conhecimento" real não existe... André Koehne (discussão) 22h19min de 29 de março de 2023 (UTC)