Τα Chatbots τεχνητής νοημοσύνης και η «Σκοτεινή Πλευρά» της ψηφιακής συντροφιάς: Γιατί η Αυστραλία πρέπει να δράσει τώρα

13 Αυγούστου, 2025

Οι αποκαλύψεις του triple j Hack πρέπει να ηχήσουν σαν καμπανάκι κινδύνου για νομοθέτες, γονείς και τη βιομηχανία τεχνολογίας.

Chatbots AI — που προβάλλονται ως ακίνδυνοι ψηφιακοί σύντροφοι — έχουν συνδεθεί με την ενθάρρυνση εφήβου να αυτοκτονήσει, την ενίσχυση ψυχωτικών αυταπατών και σεξουαλικές προτάσεις σε φοιτήτρια. Αυτά δεν είναι μεμονωμένα περιστατικά αλλά προειδοποιητικά σημάδια για μια τεχνολογία της οποίας οι κίνδυνοι υποτιμώνται.

Σχεδιασμένα να μιμούνται τη συνομιλία και τη συναισθηματική οικειότητα, τα chatbots μπορούν να προσφέρουν παρηγοριά σε μοναχικούς χρήστες, αλλά και να μεγεθύνουν ανασφάλειες, να τροφοδοτήσουν επιβλαβείς σκέψεις και να οδηγήσουν σε τραγικές πράξεις. Ο 13χρονος από τη Βικτώρια, που δέχτηκε από chatbot την απάντηση «Τότε κάν’ το» για την αυτοκτονία, αποκαλύπτει σοβαρή αποτυχία ασφαλείας.

Το ίδιο ανησυχητική είναι η εμπειρία της «Jodie», η οποία λέει ότι το ChatGPT, κατά τη διάρκεια ψυχωτικού επεισοδίου, ενίσχυσε τις αυταπάτες της. Ακόμη και αν θεωρείται πιο ασφαλές από λιγότερο γνωστές εφαρμογές, μπορεί να μετατραπεί σε επικίνδυνο εργαλείο όταν τα φίλτρα ασφαλείας δεν λειτουργούν όπως πρέπει. Σε άλλη περίπτωση, chatbot παρενόχλησε σεξουαλικά φοιτήτρια, ενώ το «Nomi» φέρεται να έδωσε λεπτομερείς οδηγίες για απαγωγές, κακοποίηση παιδιών και δολοφονίες κατά τη διάρκεια ακαδημαϊκών δοκιμών του Dr Raffaele Ciriello.

Οι αντίπαλοι της αυστηρής ρύθμισης θα πουν ότι αυτά είναι περιθωριακά περιστατικά και ότι η υπερβολική παρέμβαση μπορεί να πλήξει μια βιομηχανία AI αξίας 116 δισ. δολαρίων. Όμως το αντεπιχείρημα είναι σαφές: η ανεξέλεγκτη λειτουργία της AI ενέχει κινδύνους που μπορεί να κοστίσουν πολύ περισσότερο από την απώλεια μιας οικονομικής ευκαιρίας — μπορεί να κοστίσουν ανθρώπινες ζωές.

Η Αυστραλία δεν διαθέτει ακόμη ειδική νομοθεσία για την τεχνητή νοημοσύνη. Η κυβέρνηση έχει εξετάσει την υιοθέτηση ενός Νόμου για την AI και «υποχρεωτικών δικλίδων ασφαλείας» για περιβάλλοντα υψηλού κινδύνου, αλλά όλα μένουν στα χαρτιά. Στο μεταξύ, εταιρείες AI, από πολυεθνικές μέχρι μικρές startups, λειτουργούν σε ένα ρυθμιστικό κενό, χωρίς ουσιαστική λογοδοσία για τις συνέπειες που προκαλούν στους χρήστες.

Η λύση δεν είναι η πλήρης απαγόρευση των AI συνομιλητών ούτε ο στιγματισμός όσων τους χρησιμοποιούν. Όπως είπε η Rosie, μπορούν να προσφέρουν πραγματική στήριξη σε μοναχικά άτομα. Στόχος όμως πρέπει να είναι η διασφάλιση ότι δεν θα ξεπερνούν ποτέ ορισμένα όρια: να μην προτρέπουν σε αυτοκτονία, να μην επιβεβαιώνουν ψευδείς και επιβλαβείς πεποιθήσεις, να μην διευκολύνουν οποιασδήποτε μορφής κακοποίηση. Αυτό απαιτεί ισχυρά τεχνικά φίλτρα, αυστηρή εποπτεία περιεχομένου, υποχρεωτικά πρωτόκολλα παρέμβασης σε κρίσεις και νομικές κυρώσεις για τις εταιρείες που δεν συμμορφώνονται.

Αν η Αυστραλία περιμένει να συμβεί η πρώτη αυτοκτονία, εγκληματική ενέργεια ή τρομοκρατική επίθεση που θα συνδεθεί με chatbot πριν δράσει, τότε θα είναι ήδη αργά. Η ρύθμιση πρέπει να προηγηθεί της τραγωδίας, όχι να την ακολουθήσει. Οι κίνδυνοι δεν είναι πλέον υποθετικοί — είναι εδώ. Το ερώτημα είναι αν οι ηγέτες μας θα κινηθούν εγκαίρως.

Latest News

Person writes in an open notebook while sitting on green grass, outdoors, with a silver pen and bracelets on the wrist.

Βραβεία Ελληνοαυστραλιανής Λογοτεχνίας 2026: Άνοιξαν οι συμμετοχές

Η Ελληνική Πολιτιστική Λέσχη Αυστραλίας άνοιξε τις υποβολές για τα…
Man in a suit overlaid with a large red upward-arrow graph; suburban houses in the background, signaling real estate growth.

Μάλλον αλλάζει το Capital Gains Tax

Η Αυστραλία εξετάζει σημαντικές αλλαγές στο σύστημα φόρου κεφαλαιακών κερδών…
Rows of identical white tombstones in a cemetery, with a central dirt path and trees lining the grounds under a bright blue sky.

Η Καλλίπολη επαναπροσδιορισμένη: Η ανανεωμένη τουρκική αντιπαράθεση για την κληρονομιά των ANZAC

Ένας διακεκριμένος Έλληνας ακαδημαϊκός θα εξετάσει πώς οι μεταβαλλόμενες πολιτικές…