Η τεχνητή νοημοσύνη θα μπορούσε να μεταμορφώσει τις επιτροπές δεοντολογίας

By | February 29, 2024

    <classe span=Freedomz/Shutterstock” src=”https://s.yimg.com/ny/api/res/1.2/AtTxXd4crq4UvJJmsiHgXQ–/YXBwaWQ9aGlnaGxhbmRlcjt3PTk2MDtoPTY0MQ–/https://media.zenfs_48574ddation/https://media.zenfs_48544dation/en 6f 5f648db52815″ data-src =” f64 8db52815″/>

Ο ρόλος μιας επιτροπής δεοντολογίας είναι να συμβουλεύει για το τι πρέπει να γίνει σε συχνά αμφιλεγόμενες καταστάσεις. Χρησιμοποιούνται στην ιατρική, την έρευνα, τις επιχειρήσεις, το δίκαιο και πολλούς άλλους τομείς.

Η λέξη «ηθική» αναφέρεται στις ηθικές αρχές που διέπουν την ανθρώπινη συμπεριφορά. Το έργο των επιτροπών δεοντολογίας μπορεί να είναι αρκετά περίπλοκο, δεδομένου του ευρέος φάσματος ηθικών, πολιτικών, φιλοσοφικών, πολιτιστικών και θρησκευτικών απόψεων. Ακόμα κι έτσι, τα καλά ηθικά επιχειρήματα αποτελούν τη βάση της κοινωνίας, καθώς αποτελούν τη βάση των νόμων και των συμφωνιών που χρησιμοποιούμε για να σχετιστούμε μεταξύ μας.

Δεδομένης της σημασίας της ηθικής, κάθε εργαλείο που μπορεί να χρησιμοποιηθεί για να βοηθήσει στη λήψη καλύτερων ηθικών αποφάσεων θα πρέπει να διερευνηθεί και να χρησιμοποιηθεί. Τα τελευταία χρόνια, υπάρχει αυξανόμενη αναγνώριση ότι η τεχνητή νοημοσύνη (AI) είναι ένα εργαλείο που μπορεί να χρησιμοποιηθεί για την ανάλυση πολύπλοκων δεδομένων. Επομένως, είναι λογικό να αναρωτηθούμε εάν η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για να βοηθήσει στη λήψη καλύτερων ηθικών αποφάσεων.

Δεδομένου ότι το AI είναι μια κατηγορία αλγορίθμων υπολογιστών, βασίζεται σε δεδομένα. Οι επιτροπές δεοντολογίας βασίζονται επίσης σε δεδομένα, επομένως ένα σημαντικό ερώτημα είναι εάν η τεχνητή νοημοσύνη είναι ικανή να φορτώσει και, στη συνέχεια, να αναλύσει ουσιαστικά, τους τύπους δεδομένων που εξετάζουν τακτικά οι επιτροπές δεοντολογίας.

Εδώ, το πλαίσιο γίνεται πολύ σημαντικό. Για παράδειγμα, μια επιτροπή δεοντολογίας του νοσοκομείου μπορεί να λαμβάνει αποφάσεις με βάση την εμπειρία με τους ασθενείς, τη συμβολή δικηγόρων και τη γενική κατανόηση κοινών πολιτιστικών ή κοινωνικών κανόνων και απόψεων. Αυτή τη στιγμή είναι δύσκολο να δούμε πώς αυτά τα δεδομένα θα μπορούσαν να συλληφθούν και να τροφοδοτηθούν σε έναν αλγόριθμο AI.

Ωστόσο, προεδρεύω ενός πολύ συγκεκριμένου τύπου επιτροπής δεοντολογίας, που ονομάζεται επιτροπή ηθικής έρευνας (REC), ο ρόλος της οποίας είναι να αναθεωρεί τα πρωτόκολλα επιστημονικής έρευνας. Στόχος είναι η προώθηση της έρευνας υψηλής ποιότητας με παράλληλη προστασία των δικαιωμάτων, της ασφάλειας, της αξιοπρέπειας και της ευημερίας των ατόμων που συμμετέχουν στην έρευνα.

Εργαστηριακό περιβάλλον.

Το μεγαλύτερο μέρος της δραστηριότητάς μας περιλαμβάνει την ανάγνωση πολύπλοκων εγγράφων για να προσδιορίσουμε ποια μπορεί να είναι τα σχετικά ηθικά ζητήματα και στη συνέχεια να κάνουμε προτάσεις σε ερευνητές σχετικά με το πώς μπορούν να βελτιώσουν τα προτεινόμενα πρωτόκολλα ή τις διαδικασίες τους. Εδώ η τεχνητή νοημοσύνη μπορεί να είναι πολύ χρήσιμη.

Τα ερευνητικά πρωτόκολλα, ειδικά αυτά για κλινικές δοκιμές, συχνά εκτείνονται σε εκατοντάδες, αν όχι χιλιάδες σελίδες. Οι πληροφορίες είναι πυκνές και πολύπλοκες. Αν και τα πρωτόκολλα συνοδεύονται από έντυπα αιτήσεων δεοντολογίας που επιδιώκουν να παρουσιάσουν πληροφορίες σχετικά με βασικά ηθικά ζητήματα με τρόπο που μπορούν εύκολα να βρουν τα μέλη της REC, η εργασία μπορεί να διαρκέσει ακόμη πολύ.

Αφού μελετήσουν τα έγγραφα, τα μέλη της REC αξιολογούν αυτά που έχουν διαβάσει, τα συγκρίνουν με καθοδήγηση σχετικά με την ορθή δεοντολογική πρακτική, εξετάζουν τα στοιχεία από ομάδες δέσμευσης ασθενών και συμμετεχόντων και στη συνέχεια αποφασίζουν εάν η έρευνα μπορεί να προχωρήσει όπως έχει προγραμματιστεί. Το πιο συνηθισμένο αποτέλεσμα είναι ότι απαιτούνται περισσότερες πληροφορίες και ορισμένες τροποποιήσεις πριν προχωρήσει η αναζήτηση.

Ένας ρόλος για μηχανές;

Αν και έχουν γίνει προσπάθειες για την τυποποίηση των μελών και της εμπειρίας των REC, οι ερευνητές συχνά παραπονιούνται ότι η διαδικασία μπορεί να διαρκέσει πολύ και είναι ασυνεπής σε διάφορες επιτροπές.

Η τεχνητή νοημοσύνη φαίνεται να βρίσκεται σε ιδανική θέση για να επιταχύνει τη διαδικασία και να βοηθήσει στην επίλυση ορισμένων από τις ασυνέπειες. Το AI όχι μόνο μπορούσε να διαβάσει τόσο μεγάλα έγγραφα πολύ γρήγορα, αλλά θα μπορούσε επίσης να εκπαιδευτεί σε μεγάλο αριθμό προηγούμενων πρωτοκόλλων και αποφάσεων.

Θα μπορούσε πολύ γρήγορα να εντοπίσει τυχόν ηθικά ζητήματα και να προτείνει λύσεις για να εφαρμόσουν οι ερευνητικές ομάδες. Αυτό θα επιτάχυνε πολύ τη διαδικασία αναθεώρησης δεοντολογίας και πιθανώς θα την έκανε πολύ πιο συνεπή. Αλλά είναι ηθικά αποδεκτό να χρησιμοποιείται η τεχνητή νοημοσύνη με αυτόν τον τρόπο;

Ενώ η τεχνητή νοημοσύνη θα μπορούσε σαφώς να εκτελέσει πολλές από τις εργασίες REC, θα μπορούσε επίσης να υποστηριχθεί ότι αυτές οι εργασίες αναθεώρησης δεν είναι στην πραγματικότητα το ίδιο με τη λήψη μιας ηθικής απόφασης. Στο τέλος της διαδικασίας αναθεώρησης, οι REC καλούνται να αποφασίσουν εάν ένα πρωτόκολλο, με τις ενημερώσεις, θα λάβει θετική ή δυσμενή γνώμη.

Κατά συνέπεια, αν και το πλεονέκτημα της τεχνητής νοημοσύνης είναι σαφές στην επιτάχυνση της διαδικασίας, αυτό δεν είναι ακριβώς το ίδιο με τη λήψη της τελικής απόφασης.

Ένας άνθρωπος στο βρόχο

Μπορεί η τεχνητή νοημοσύνη να είναι εξαιρετικά αποτελεσματική στην αξιολόγηση μιας κατάστασης και να προτείνει μια πορεία δράσης που να συνάδει με την προηγούμενη «ηθική» συμπεριφορά. Ωστόσο, η απόφαση να υιοθετήσουμε πραγματικά μια πορεία δράσης και στη συνέχεια να ενεργήσουμε με αυτόν τον τρόπο είναι θεμελιωδώς ανθρώπινη.

Στο παράδειγμα της ηθικής της έρευνας, η τεχνητή νοημοσύνη μπορεί κάλλιστα να προτείνει μια πορεία δράσης, αλλά στην πραγματικότητα η απόφαση για δράση είναι μια ανθρώπινη απόφαση. Το σύστημα θα μπορούσε να σχεδιαστεί για να καθοδηγεί τις επιτροπές δεοντολογίας ή τους ερευνητές να κάνουν αναμφισβήτητα αυτό που προτείνει η τεχνητή νοημοσύνη, αλλά μια τέτοια απόφαση εξαρτάται από τον τρόπο χρήσης του AI και όχι από το ίδιο το AI.

Αν και η τεχνητή νοημοσύνη είναι ίσως άμεσα χρήσιμη για την έρευνα των επιτροπών δεοντολογίας, δεδομένου του τύπου των δεδομένων που αναλύουμε, είναι πολύ πιθανό να βελτιωθούν οι τρόποι κωδικοποίησης μη κειμενικών δεδομένων (όπως οι εμπειρίες των ανθρώπων).

Αυτό σημαίνει ότι, με την πάροδο του χρόνου, η τεχνητή νοημοσύνη θα μπορούσε επίσης να βοηθήσει σε άλλους τομείς της ηθικής λήψης αποφάσεων. Ωστόσο, το βασικό σημείο είναι να μην συγχέουμε το εργαλείο που χρησιμοποιείται για την ανάλυση των δεδομένων, την τεχνητή νοημοσύνη, με την τελική «ηθική» απόφαση για το πώς να ενεργήσουμε. Ο κίνδυνος δεν είναι η τεχνητή νοημοσύνη, αλλά το πώς οι άνθρωποι επιλέγουν να ενσωματώσουν την τεχνητή νοημοσύνη στις ηθικές διαδικασίες λήψης αποφάσεων.

Αυτό το άρθρο αναδημοσιεύεται από το The Conversation με άδεια Creative Commons. Διαβάστε το αρχικό άρθρο.

Η συζήτησηΗ συζήτηση

Η συζήτηση

Ο Simon Kolstoe έχει λάβει στο παρελθόν χρηματοδότηση από την Υπηρεσία Ερευνών Υγείας για να διερευνήσει πτυχές της Ερευνητικής Δεοντολογίας. Είναι πρόεδρος των Cambs and Herts HRA (NHS) REC, MODREC και της ομάδας έρευνας ηθικής και διακυβέρνησης του UKHSA. Είναι διαχειριστής του Charity UK Research Integrity Office (UKRIO). Όλες οι απόψεις που εκφράζονται σε αυτό το άρθρο είναι δικές του και δεν πρέπει να ερμηνευθούν ότι αντικατοπτρίζουν τις απόψεις αυτών των οργανώσεων.

Leave a Reply

Your email address will not be published. Required fields are marked *