Dark
Light

Τα Chatbots τεχνητής νοημοσύνης και η «Σκοτεινή Πλευρά» της ψηφιακής συντροφιάς: Γιατί η Αυστραλία πρέπει να δράσει τώρα

13 Αυγούστου, 2025

Οι αποκαλύψεις του triple j Hack πρέπει να ηχήσουν σαν καμπανάκι κινδύνου για νομοθέτες, γονείς και τη βιομηχανία τεχνολογίας.

Chatbots AI — που προβάλλονται ως ακίνδυνοι ψηφιακοί σύντροφοι — έχουν συνδεθεί με την ενθάρρυνση εφήβου να αυτοκτονήσει, την ενίσχυση ψυχωτικών αυταπατών και σεξουαλικές προτάσεις σε φοιτήτρια. Αυτά δεν είναι μεμονωμένα περιστατικά αλλά προειδοποιητικά σημάδια για μια τεχνολογία της οποίας οι κίνδυνοι υποτιμώνται.

Σχεδιασμένα να μιμούνται τη συνομιλία και τη συναισθηματική οικειότητα, τα chatbots μπορούν να προσφέρουν παρηγοριά σε μοναχικούς χρήστες, αλλά και να μεγεθύνουν ανασφάλειες, να τροφοδοτήσουν επιβλαβείς σκέψεις και να οδηγήσουν σε τραγικές πράξεις. Ο 13χρονος από τη Βικτώρια, που δέχτηκε από chatbot την απάντηση «Τότε κάν’ το» για την αυτοκτονία, αποκαλύπτει σοβαρή αποτυχία ασφαλείας.

Το ίδιο ανησυχητική είναι η εμπειρία της «Jodie», η οποία λέει ότι το ChatGPT, κατά τη διάρκεια ψυχωτικού επεισοδίου, ενίσχυσε τις αυταπάτες της. Ακόμη και αν θεωρείται πιο ασφαλές από λιγότερο γνωστές εφαρμογές, μπορεί να μετατραπεί σε επικίνδυνο εργαλείο όταν τα φίλτρα ασφαλείας δεν λειτουργούν όπως πρέπει. Σε άλλη περίπτωση, chatbot παρενόχλησε σεξουαλικά φοιτήτρια, ενώ το «Nomi» φέρεται να έδωσε λεπτομερείς οδηγίες για απαγωγές, κακοποίηση παιδιών και δολοφονίες κατά τη διάρκεια ακαδημαϊκών δοκιμών του Dr Raffaele Ciriello.

Οι αντίπαλοι της αυστηρής ρύθμισης θα πουν ότι αυτά είναι περιθωριακά περιστατικά και ότι η υπερβολική παρέμβαση μπορεί να πλήξει μια βιομηχανία AI αξίας 116 δισ. δολαρίων. Όμως το αντεπιχείρημα είναι σαφές: η ανεξέλεγκτη λειτουργία της AI ενέχει κινδύνους που μπορεί να κοστίσουν πολύ περισσότερο από την απώλεια μιας οικονομικής ευκαιρίας — μπορεί να κοστίσουν ανθρώπινες ζωές.

Η Αυστραλία δεν διαθέτει ακόμη ειδική νομοθεσία για την τεχνητή νοημοσύνη. Η κυβέρνηση έχει εξετάσει την υιοθέτηση ενός Νόμου για την AI και «υποχρεωτικών δικλίδων ασφαλείας» για περιβάλλοντα υψηλού κινδύνου, αλλά όλα μένουν στα χαρτιά. Στο μεταξύ, εταιρείες AI, από πολυεθνικές μέχρι μικρές startups, λειτουργούν σε ένα ρυθμιστικό κενό, χωρίς ουσιαστική λογοδοσία για τις συνέπειες που προκαλούν στους χρήστες.

Η λύση δεν είναι η πλήρης απαγόρευση των AI συνομιλητών ούτε ο στιγματισμός όσων τους χρησιμοποιούν. Όπως είπε η Rosie, μπορούν να προσφέρουν πραγματική στήριξη σε μοναχικά άτομα. Στόχος όμως πρέπει να είναι η διασφάλιση ότι δεν θα ξεπερνούν ποτέ ορισμένα όρια: να μην προτρέπουν σε αυτοκτονία, να μην επιβεβαιώνουν ψευδείς και επιβλαβείς πεποιθήσεις, να μην διευκολύνουν οποιασδήποτε μορφής κακοποίηση. Αυτό απαιτεί ισχυρά τεχνικά φίλτρα, αυστηρή εποπτεία περιεχομένου, υποχρεωτικά πρωτόκολλα παρέμβασης σε κρίσεις και νομικές κυρώσεις για τις εταιρείες που δεν συμμορφώνονται.

Αν η Αυστραλία περιμένει να συμβεί η πρώτη αυτοκτονία, εγκληματική ενέργεια ή τρομοκρατική επίθεση που θα συνδεθεί με chatbot πριν δράσει, τότε θα είναι ήδη αργά. Η ρύθμιση πρέπει να προηγηθεί της τραγωδίας, όχι να την ακολουθήσει. Οι κίνδυνοι δεν είναι πλέον υποθετικοί — είναι εδώ. Το ερώτημα είναι αν οι ηγέτες μας θα κινηθούν εγκαίρως.

Dark
Light

Latest News

Νίκες στον 1ο γύρο για τη Σάκκαρη και τον Τσιτσιπά στο US Open

Σάκκαρη – Μαρία Η Μαρία Σάκκαρη ξεκίνησε με τον καλύτερο

Βικτώρια: Ένα μέλλον πνιγμένο στα σκουπίδια;

Η πρόσφατη αποκάλυψη ότι οι υφιστάμενοι χώροι ταφής απορριμμάτων της

Δήλωση του Διοικητικού Συμβουλίου της Ελληνικής Κοινότητας Μελβούρνης σχετικά με τον Ελληνικό Οργανισμό Τουρισμού (ΕΟΤ)

Η Ελληνική Κοινότητα Μελβούρνης (ΕΚΜ) είναι έτοιμη να επιβεβαιώσει τη