Τεχνολογία

Μόλις δύο ώρες χρειάζεται η τεχνητή νοημοσύνη για να αντιγράψει την προσωπικότητά μας

Μια δίωρη συνομιλία με ένα μοντέλο τεχνητής νοημοσύνης αρκεί για να δημιουργηθεί ένα ακριβές αντίγραφο της προσωπικότητας κάποιου, ανακάλυψαν ερευνητές.

Σε μια νέα μελέτη που δημοσιεύθηκε στη βάση δεδομένων arXiv του Πανεπιστημίου Κορνέλ, ερευνητές από την Google και το Πανεπιστήμιο του Στάνφορντ δημιούργησαν «πράκτορες προσομοίωσης» (simulation agents), δηλαδή αντίγραφα τεχνητής νοημοσύνης από 1.052 ανθρώπους, με βάση δίωρες συνεντεύξεις με κάθε συμμετέχοντα. Οι συνεντεύξεις αυτές χρησιμοποιήθηκαν για την εκπαίδευση ενός μοντέλου παραγωγικής τεχνητής νοημοσύνης (generative AI) που σχεδιάστηκε για να μιμείται την ανθρώπινη συμπεριφορά.

Για να αξιολογηθεί η ακρίβεια των αντιγράφων, κάθε συμμετέχων πέρασε από δύο γύρους τεστ προσωπικότητας, κοινωνικής έρευνας και παιχνιδιών λογικής, και κλήθηκε να επαναλάβει τη διαδικασία δύο εβδομάδες αργότερα. Όταν τα αντίγραφα υποβλήθηκαν στις ίδιες δοκιμασίες, ταίριαξαν τις απαντήσεις των ανθρώπινων ομολόγων τους με ακρίβεια 85%.

Όπως σημειώνει το LiveScience, τα μοντέλα τεχνητής νοημοσύνης που μιμούνται την ανθρώπινη συμπεριφορά θα μπορούσαν να είναι χρήσιμα σε μια ποικιλία ερευνητικών σεναρίων, όπως η αξιολόγηση της αποτελεσματικότητας των πολιτικών δημόσιας υγείας, η κατανόηση των αντιδράσεων σε λανσαρίσματα προϊόντων ή ακόμη και η μοντελοποίηση αντιδράσεων σε μείζονα κοινωνικά γεγονότα που διαφορετικά θα μπορούσαν να είναι πολύ δαπανηρά, δύσκολα ή ηθικά πολύπλοκα για να μελετηθούν με ανθρώπινους συμμετέχοντες.

Δημιουργώντας πράκτορες προσομοίωσης

Για να δημιουργήσουν τους πράκτορες προσομοίωσης, οι ερευνητές διεξήγαγαν συνεντεύξεις σε βάθος που κάλυψαν τις ιστορίες ζωής, τις αξίες και τις απόψεις των συμμετεχόντων για τα κοινωνικά ζητήματα. Αυτό επέτρεψε στην τεχνητή νοημοσύνη να συλλάβει αποχρώσεις που θα μπορούσαν να ξεφύγουν από τις τυπικές έρευνες ή τα δημογραφικά δεδομένα, εξήγησαν οι ερευνητές.

Οι επιστήμονες χρησιμοποίησαν αυτές τις συνεντεύξεις για να δημιουργήσουν εξατομικευμένα μοντέλα τεχνητής νοημοσύνης που θα μπορούσαν να προβλέψουν πώς τα άτομα θα μπορούσαν να ανταποκριθούν σε ερωτήσεις ερευνών, κοινωνικά πειράματα και παιχνίδια συμπεριφοράς.

Οι πράκτορες προσωμοίωσης είχαν ιδιαίτερα καλές επιδόσεις στην αναπαραγωγή των ανθρώπινων απαντήσεων σε έρευνες προσωπικότητας και στον προσδιορισμό των κοινωνικών στάσεων, αλλά ήταν λιγότερο ακριβείς στην πρόβλεψη συμπεριφορών σε διαδραστικά παιχνίδια που αφορούσαν τη λήψη οικονομικών αποφάσεων.

Κίνδυνοι και προοπτικές

Οι ερευνητές πάντως αναγνωρίζουν τη δυνατότητα κατάχρησης της συγκεκριμένης τεχνολογίας. Η τεχνητή νοημοσύνη και οι τεχνολογίες deepfake χρησιμοποιούνται ήδη από κακόβουλους φορείς για να εξαπατήσουν και να χειραγωγήσουν άλλους ανθρώπους στο διαδίκτυο, και οι πράκτορες προσομοίωσης θα μπορούσαν επίσης να χρησιμοποιηθούν καταχρηστικά.

Ωστόσο, δήλωσαν ότι η τεχνολογία θα μπορούσε να μας επιτρέψει να μελετήσουμε πτυχές της ανθρώπινης συμπεριφοράς με τρόπους που ήταν προηγουμένως ανέφικτοι, παρέχοντας ένα εξαιρετικά ελεγχόμενο περιβάλλον δοκιμών χωρίς τις ηθικές, υλικοτεχνικές ή διαπροσωπικές προκλήσεις της εργασίας με ανθρώπους.

Μιλώντας στο MIT Technology Review, ο επικεφαλής συγγραφέας της μελέτης Τζουν Σουνγκ Παρκ, διδακτορικός φοιτητής στην επιστήμη των υπολογιστών στο Στάνφορντ, δήλωσε: «Αν μπορείτε να έχετε ένα μάτσο μικρά “εσείς” που τρέχουν τριγύρω και παίρνουν τις αποφάσεις που θα παίρνατε εσείς – αυτό, νομίζω, είναι τελικά το μέλλον».




Δημοσιεύτηκε ! 2025-01-08 07:15:00

Back to top button