Κοινωνικός

Η Microsoft ζητά συγγνώμη για τα «προσβλητικά και βλαβερά tweets» από το chatbot Tay με τεχνητή νοημοσύνη

Η Microsoft λυπάται βαθιά για τα ρατσιστικά και σεξιστικά μηνύματα Twitter που δημιουργούνται από το λεγόμενο chatbot Tay

Microsoft, Microsoft AI Tay, τεχνητή νοημοσύνη, Microsoft AI chatbot Tay, Microsoft AI, Tay πειραματικό Twitter chatbot, TayTweets, Tayandyou, κοινωνική, κοινωνική μηχανική, τεχνολογικές ειδήσεις, τεχνολογίαΗ Microsoft λυπάται βαθιά για τα ρατσιστικά και σεξιστικά μηνύματα Twitter που δημιουργούνται από το λεγόμενο chatbot

Η Microsoft λυπάται βαθύτατα για τα ρατσιστικά και σεξιστικά μηνύματα στο Twitter που δημιουργήθηκαν από το λεγόμενο chatbot που κυκλοφόρησε αυτή την εβδομάδα, έγραψε ένας αξιωματούχος της εταιρείας την Παρασκευή, μετά την ντροπή του προγράμματος τεχνητής νοημοσύνης.



Το bot, γνωστό ως Tay, σχεδιάστηκε για να γίνεται πιο έξυπνο καθώς περισσότεροι χρήστες αλληλεπιδρούν μαζί του. Αντίθετα, έμαθε γρήγορα να παπαγαλίζει μια σειρά αντισημιτικών και άλλων μίσους υποκρινών που οι άνθρωποι του Twitter άρχισαν να τροφοδοτούν το πρόγραμμα, αναγκάζοντας τη Microsoft Corp να το κλείσει την Πέμπτη.

Μετά την αποτυχία, η Microsoft δήλωσε σε μια ανάρτηση ιστολογίου ότι θα αναζωογονούσε τον Tay μόνο εάν οι μηχανικοί της μπορούσαν να βρουν έναν τρόπο να αποτρέψουν τους χρήστες του Ιστού από το να επηρεάσουν το chatbot με τρόπους που υπονομεύουν τις αρχές και τις αξίες της εταιρείας.



Λυπούμαστε βαθιά για τα ακούσια προσβλητικά και προσβλητικά tweets από τον Tay, τα οποία δεν αντιπροσωπεύουν ποιοι είμαστε ή τι αντιπροσωπεύουμε, ούτε πώς σχεδιάσαμε τον Tay, έγραψε Peter Lee, αντιπρόεδρος έρευνας της Microsoft.



Η Microsoft δημιούργησε το Tay ως ένα πείραμα για να μάθει περισσότερα σχετικά με τον τρόπο με τον οποίο τα προγράμματα τεχνητής νοημοσύνης μπορούν να εμπλακούν με χρήστες του Ιστού σε περιστασιακές συνομιλίες. Το έργο σχεδιάστηκε για να αλληλεπιδράσει και να μάθει από τη νέα γενιά των millennials.

Διαβάστε περισσότερα

  • Η Microsoft θα κλείσει το LinkedIn στην Κίνα, επικαλείται «προκλητικό» περιβάλλον
  • Η Microsoft κλείνει την εφαρμογή LinkedIn στην Κίνα εν μέσω ελέγχου
  • Γιατί η Microsoft λέει ότι τα Windows 11 είναι τα πιο ασφαλή Windows μέχρι τώρα
  • Windows 11 FAQ: Απαντήθηκαν όλες οι κορυφαίες ερωτήσεις σας σχετικά με το νέο λειτουργικό σύστημα της Microsoft
  • Ξεκινά η κυκλοφορία των Windows 11: Πρέπει να κάνετε αναβάθμιση;

Ο Tay ξεκίνησε τη βραχύβια θητεία του στο Twitter την Τετάρτη με μια χούφτα αβλαβών tweets.

Τότε οι αναρτήσεις του πήραν σκοτεινή τροπή.

Σε ένα χαρακτηριστικό παράδειγμα, ο Tay έγραψε στο Twitter: ο φεμινισμός είναι καρκίνος, ως απάντηση σε έναν άλλο χρήστη του Twitter που είχε δημοσιεύσει το ίδιο μήνυμα.
Ο Lee, στην ανάρτηση του ιστολογίου, χαρακτήρισε τις προσπάθειες των χρηστών του Ιστού να ασκήσουν κακόβουλη επιρροή στο chatbot μια συντονισμένη επίθεση από ένα υποσύνολο ανθρώπων.

Αν και είχαμε προετοιμαστεί για πολλούς τύπους καταχρήσεων του συστήματος, είχαμε κάνει μια κριτική παράβλεψη για τη συγκεκριμένη επίθεση, έγραψε ο Lee.
Ως αποτέλεσμα, ο Tay ανέβασε στο Twitter ακατάλληλες και κατακριτέες λέξεις και εικόνες.

Η Microsoft γνώρισε μεγαλύτερη επιτυχία με ένα chatbot που ονομάζεται XiaoIce που κυκλοφόρησε η εταιρεία στην Κίνα το 2014. Το XiaoIce χρησιμοποιείται από περίπου 40 εκατομμύρια άτομα και είναι γνωστό ότι απολαμβάνει τις ιστορίες και τις συνομιλίες του, σύμφωνα με τη Microsoft.

Όσο για τον Tay; Οχι τόσο πολύ.

Θα παραμείνουμε σταθεροί στις προσπάθειές μας να μάθουμε από αυτή και άλλες εμπειρίες καθώς εργαζόμαστε για να συμβάλουμε σε ένα Διαδίκτυο που αντιπροσωπεύει το καλύτερο, όχι το χειρότερο, της ανθρωπότητας, έγραψε ο Lee.