Ο Μασκ καλεί τους χρήστες του Χ να ανεβάσουν τα ιατρικά τους δεδομένα στο chatbot Grok
Τις τελευταίες εβδομάδες, οι χρήστες του X έχουν αναρτήσει στην πλατφόρμα κοινωνικής δικτύωσης, ακτινογραφίες, μαγνητικές και αξονικές τομογραφίες, καθώς και άλλες ιατρικές εικόνες στο Grok, το chatbot τεχνητής νοημοσύνης του Χ, μετά από προτροπή του Ίλον Μασκ. Η ελπίδα είναι ότι εάν αρκετοί χρήστες τροφοδοτήσουν το Grok με τα ιατρικά δεδομένα τους, θα βελτιωθεί η ακρίβειά του.
«Αυτό είναι ακόμα πρώιμο στάδιο, αλλά είναι ήδη αρκετά ακριβές και θα γίνει εξαιρετικά καλό», έγραψε ο Μασκ σε ανάρτησή του.
Μερικοί χρήστες έχουν επισημάνει τα λάθη του Grok, ενώ άλλοι το έχουν επαινέσει. Μάλιστα, μερικοί γιατροί το έχουν χρησιμοποιήσει για να δουν αν θα επιβεβαιώσει τα δικά τους ευρήματα.
Ωστόσο, η απόφαση των χρηστών να δημοσιοποιήσουν τόσο ευαίσθητες πληροφορίες έχει θορυβήσει ορισμένους ειδικούς σε θέματα ιατρικού απορρήτου.
«Αυτές είναι πολύ προσωπικές πληροφορίες και δεν ξέρετε ακριβώς τι θα κάνει το Grok με αυτές», επεσήμανε ο Δρ. Μπράντλεϊ Μάλιν, καθηγητής βιοϊατρικής πληροφορικής στο Πανεπιστήμιο Vanderbilt.
Ποιες είναι οι πιθανές συνέπειες μιας τέτοιας πρωτοβουλίας
Όταν οι εταιρείες τεχνολογίας συνεργάζονται με ένα νοσοκομείο για τη λήψη δεδομένων, υπάρχουν λεπτομερείς συμφωνίες σχετικά με τον τρόπο αποθήκευσης και κοινής χρήσης τους, επεσήμανε ο Δρ. Μάλιν.
Στην πολιτική απορρήτου της, η Χ έχει πει ότι δεν θα πουλήσει δεδομένα χρηστών σε τρίτους, ωστόσο τα μοιράζεται με «σχετικές εταιρείες». Επίσης, η εταιρεία αναφέρει ότι δεν στοχεύει στη συλλογή ευαίσθητων προσωπικών πληροφοριών, συμπεριλαμβανομένων των δεδομένων υγείας.
Ο Μάθιου ΜακΚόι, επίκουρος καθηγητής ιατρικής δεοντολογίας και πολιτικής υγείας στο Πανεπιστήμιο της Πενσυλβάνια, σημείωσε ότι μπορεί να υπάρχουν σαφείς προστατευτικές δικλείδες ασφαλείας σχετικά με τα ιατρικά δεδομένα που έχουν αναρτηθεί στο Grok, τις οποίες όμως η εταιρεία δεν έχει περιγράψει δημόσια.
«Αλλά ως μεμονωμένος χρήστης, θα ένιωθα άνετα να συνεισφέρω τα ιατρικά δεδομένα μου; Σίγουρα όχι» τόνισε ο καθηγητής.
Ο κίνδυνος λανθασμένων αποτελεσμάτων
Τα λανθασμένα αποτελέσματα θα μπορούσαν να οδηγήσουν σε αχρείαστες δαπάνες, σημείωσε ο Σούτσι Σάρια, διευθυντής του εργαστηρίου μηχανικής μάθησης και υγειονομικής περίθαλψης στο Πανεπιστήμιο Johns Hopkins.
Η εκπαίδευση των μοντέλων τεχνητής νοημοσύνης ώστε να παράγουν ακριβή αποτελέσματα σχετικά με την υγεία ενός ατόμου, απαιτεί υψηλής ποιότητας και ποικίλα δεδομένα, βαθιά τεχνογνωσία στην ιατρική, την τεχνολογία, το σχεδιασμό προϊόντων και πολλά άλλα, εξήγησε ο Δρ. Σάρια, ο οποίος είναι επίσης ο ιδρυτής της Bayesian Health, μιας εταιρείας που αναπτύσσει εργαλεία τεχνητής νοημοσύνης για χώρους υγειονομικής περίθαλψης. Οτιδήποτε λιγότερο από αυτό, είπε, «μοιάζει λίγο με έναν χομπίστα χημικό που ανακατεύει συστατικά στον νεροχύτη της κουζίνας του».
Μερικοί χρήστες μπορεί να γνωρίζουν τους κινδύνους και να αισθάνονται άνετα να ανεβάζουν τα δεδομένα τους.
«Εάν πιστεύετε ακράδαντα ότι οι πληροφορίες σας πρέπει να είναι εκεί έξω, ακόμα κι αν δεν προστατεύονται, τότε κάντε το. Αλλά προσέξτε» προειδοποίησε ο Δρ. Μάλιν.
ΠΗΓΗ: New York Times
Όλες οι Ειδήσεις από την Ελλάδα και τον Κόσμο, στο
Διάβασε όλες τις ειδήσεις μας στο GoogleΚάνε like στη σελίδα μας στο FacebookΑκολούθησε μας στο TwitterΚάνε εγγραφή στο κανάλι μας στο YoutubeΓίνε μέλος στο κανάλι μας στο Viber
Προσοχή! Επιτρέπεται η αναδημοσίευση των πληροφοριών του παραπάνω άρθρου (όχι αυτολεξεί) ή μέρους αυτών μόνο αν:– Αναφέρεται ως πηγή το στο σημείο όπου γίνεται η αναφορά.– Στο τέλος του άρθρου ως Πηγή– Σε ένα από τα δύο σημεία να υπάρχει ενεργός σύνδεσμος
Δημοσιεύτηκε ! 2024-11-21 13:57:00