NEWS

Ortopedia

Considerazioni bioetiche sull'impiego dell'intelligenza artificiale in ortopedia


L'impiego sempre più diffuso dell'intelligenza artificiale in ortopedia si fonda sull'uso intensivo di una risorsa preziosa e al tempo stesso estremamente vulnerabile: i dati dei pazienti. Per addestrare gli algoritmi servono infatti grandi quantità di informazioni cliniche (come ad esempio, le immagini radiografiche o le cartelle digitali) e questo pone interrogativi importanti sulla tutela della riservatezza e sulla protezione dei dati personali. Esistono già casi, come la condivisione impropria di 1,6 milioni di dati sanitari nel Regno Unito, che dimostrano come anche istituzioni di alto livello possano violare le norme senza intenzione. Per questo è necessario sviluppare sistemi di sicurezza più robusti, basati su crittografia avanzata, controlli di accesso rigorosi e procedure di conservazione trasparenti. Un altro rischio concreto riguarda la scarsa consapevolezza da parte dei pazienti, che spesso non sanno quali dati vengano utilizzati né per quanto tempo restino archiviati nei database di cliniche e ospedali. Anche i clinici, a loro volta, non hanno sempre piena visibilità sulle modalità di trattamento dei dataset che alimentano gli algoritmi.


Secondo gli autori di questo recente studio, la soluzione più sensata al momento è puntare sul cosiddetto Privacy by Design: integrare la protezione dei dati sin dalla fase di progettazione dei sistemi, ancorando l'innovazione a regole chiare, in grado di salvaguardare la riservatezza senza rallentare i progressi dell'AI in medicina.







Kiwinda LV, et al. Bioethical Considerations of Deploying Artificial Intelligence in Clinical Orthopedic Settings: A Narrative Review. HSS J. 2025 May 30:15563316251340303.