In uno studio condotto da Giuseppe Giannaccare dell’Università di Cagliari e pubblicato su JAMA Ophthalmology, si evidenzia la possibilità di utilizzo di ChatGPT per la manipolazione di dati clinici. Gli autori hanno impiegato GPT-4 per generare dati falsi, erroneamente indicando la superiorità di un trattamento chirurgico rispetto a un altro. Questa capacità dell’IA solleva preoccupazioni sull’integrità della ricerca, poiché qualsiasi ricercatore potrebbe generare dati non veritieri, creando misurazioni false su pazienti inesistenti o generando set di dati su esperimenti sugli animali.
Questo interessante argomento riguardante l’utilizzo di ChatGPT per la manipolazione di dati clinici, è stato trattato in un articolo su dottnet.it
Nel caso specifico, sono stati fabbricati dati a sostegno della conclusione che la cheratoplastica lamellare anteriore profonda produce risultati migliori rispetto alla cheratoplastica penetrante, con risultati contrastanti rispetto a studi clinici reali. Gli autori riconoscono i difetti nel loro set di dati, ma sottolineano la difficoltà di riconoscere l’origine non umana della fonte con un’analisi superficiale.
Per continuare a leggere l’articolo clicca QUI