«H Tεχνητή Nοημοσύνη θα μπορούσε να σημάνει το τέλος της ανθρωπότητας»
03/12/2014 12:01
ΔΗΜΙΟΥΡΓΙΑ ΣΧΟΛΙΟΥ

«H Tεχνητή Nοημοσύνη θα μπορούσε να σημάνει το τέλος της ανθρωπότητας»

Ο καθηγητής Στίβεν Χόκινγκ, ένας από τους πιο διαπρεπείς επιστήμονες της εποχής μας, δήλωσε ότι οι προσπάθειες για τη δημιουργία σκεπτόμενων μηχανών αποτελεί απειλή για την ίδια την ύπαρξή μας. «Η ανάπτυξη της πλήρους τεχνητής νοημοσύνης θα μπορούσε να σημάνει το τέλος της ανθρώπινης φυλής» σχολίασε.

Η προειδοποίησή του ήρθε ως απάντηση σε ερώτημα σχετικά με την αναμόρφωση της τεχνολογίας που χρησιμοποιεί για να επικοινωνεί, η οποία περιλαμβάνει μια βασική μορφή τεχνητής νοημοσύνης (ΑΙ). Ο θεωρητικός φυσικός, ο οποίος πάσχει από ALS, χρησιμοποιεί ένα νέο σύστημα για να μιλήσει, που αναπτύχθηκε από την Intel. Εμπειρογνώμονες μηχανικής μάθησης από τη βρετανική εταιρεία Swiftkey συμμετείχαν επίσης στη δημιουργία του. Η τεχνολογία τους, που ήδη υπάρχει ως εφαρμογή σε smartphone, μαθαίνει πως σκέφτεται ο καθηγητής και προτείνει τα λόγια που ίσως θα ήθελε να χρησιμοποιήσει στη συνέχεια.

Ο καθηγητής Χόκινγκ λέει ότι οι πρωτόγονες μορφές τεχνητής νοημοσύνης που αναπτύχθηκαν μέχρι σήμερα έχουν ήδη αποδειχθεί πολύ χρήσιμες, αλλά φοβάται τις συνέπειες της δημιουργίας τους, καθώς μπορεί να ξεπεράσουν τον άνθρωπο. «Θα απογειωθεί από μόνη της και θα επανασχεδιαστεί μόνη της, με έναν συνεχώς αυξανόμενο ρυθμό», είπε. «Οι άνθρωποι, οι οποίοι περιορίζονται από την αργή βιολογική εξέλιξη, δεν θα μπορούν να την ανταγωνιστούν και θα πρέπει να αντικατασταθούν».

Άλλοι επιστήμονες πάντως είναι λιγότερο απαισιόδοξοι για τις προοπτικές της ΑΙ. «Πιστεύω ότι θα είμαστε υπεύθυνοι για την τεχνολογία για ένα αξιοπρεπώς μεγάλο χρονικό διάστημα και ότι θα γίνει κατανοητή η δυναμική της στην επίλυση προβλημάτων» είπε ο Ρόλο Κάρπεντερ, δημιουργός του Cleverbot. Το λογισμικό του Cleverbot μαθαίνει από προηγούμενες συνομιλίες και έχει κερδίσει υψηλή βαθμολογία στο τεστ Turing, ξεγελώντας ένα υψηλό ποσοστό των ανθρώπων και κάνοντάς τους να πιστέψουν ότι μιλάνε με έναν άνθρωπο.

Ο Κάρπεντερ υποστηρίζει ότι απέχουμε πολύ από το να έχουμε την υπολογιστική ισχύ ή από το να εξελίξουμε αλγόριθμους που απαιτούνται για να επιτευχθεί η πλήρης τεχνητή νοημοσύνη, αλλά πιστεύει ότι αυτό θα συμβεί μέσα στις επόμενες δεκαετίες. «Δεν μπορούμε να γνωρίζουμε ακριβώς τι θα συμβεί αν μια μηχανή ξεπεράσει τη δική μας νοημοσύνη, κι έτσι δεν μπορούμε να ξέρουμε αν θα βοηθηθούμε από αυτό, αν θα το αγνοήσουμε ή αν ενδεχομένως μας καταστρέψει», λέει. Θεωρεί πάντως ότι η AI είναι μια θετική δύναμη.

Ο καθηγητής Χόκινγκ δεν είναι ο μόνος που ανησυχεί για το μέλλον. Υπάρχουν ανησυχίες, σε βραχυπρόθεσμο επίπεδο, ότι οι έξυπνες μηχανές θα είναι ικανές να αναλάβουν καθήκοντα που εκτελούνταν από τους ανθρώπους μέχρι τώρα, καταστρέφοντας εκατομμύρια θέσεις εργασίας. Για πιο μακροπρόθεσμα, ο επιχειρηματίας της τεχνολογίας Έλον Μασκ έχει προειδοποιήσει ότι η AI είναι «η μεγαλύτερη απειλή για την ύπαρξή μας».

Σε συνέντευξη του στο BBC, ο καθηγητής Χόκινγκ μιλά για τα οφέλη και τους κινδύνους του διαδικτύου. Υπενθυμίζει ότι ο διευθυντής της GCHQ είχε προειδοποιήσει ότι το Διαδίκτυο θα γίνει το κέντρο διοίκησης των τρομοκρατών: «Πρέπει να γίνουν περισσότερα από τις εταιρείες του Διαδικτύου για την αντιμετώπιση της απειλής, αλλά η δυσκολία είναι να το κάνουμε αυτό χωρίς να θυσιάσουμε την ελευθερία και την προστασία της ιδιωτικής ζωής». Παρόλα αυτά, υπήρξε ένας ενθουσιώδης πρωτοπόρος χρήστης όλων των ειδών των τεχνολογιών επικοινωνίας και ανυπομονεί να είναι σε θέση να γράψει πολύ γρηγορότερα με το νέο σύστημα του. Αλλά μια πτυχή της δικής του τεχνολογίας – ο υπολογιστής που παράγει την φωνή του- δεν έχει αλλάξει στην πιο πρόσφατη ενημέρωσή του. Ο καθηγητής Χόκινγκ παραδέχεται ότι είναι ελαφρώς ρομποτική, αλλά επιμένει ότι δεν θέλει μια πιο φυσική φωνή. «Είναι το σήμα κατατεθέν μου και δεν θα το άλλαζα για μια πιο φυσική φωνή με μια βρετανική προφορά», είπε. «Μου είπαν ότι τα παιδιά που χρειάζονται μια φωνή υπολογιστή, θέλουν μια σαν τη δική μου».

http://www.bbc.com/news/technology-30290540

ΣΧΟΛΙΑ

  1. ΑΘΑΝΑΣΙΟΣ M.- avatar
    ΑΘΑΝΑΣΙΟΣ M.- 04/12/2014 09:17:25

    Αν το μέλλον μας είναι να μετατραπούμε σε cyborgs ήτοι βιολογικοτεχνητούς ανθρώπους, αυτό θα γίνει σταδιακά και χωρίς να το καταλάβουμε. Ήδη υπάρχουν άνθρωποι που ζουν ακόμα, όπως ο ίδιος ο Χώκινς, χάρη σε πλειάδα τεχνητών "προθέσεων" ακόμα και με chips μνήμης εμφυτευμένα στον εγκέφαλό τους. Τα γυαλιά της google αποτελούν τον προάγγελο της συμβίωσης ανθρώπινου και ηλεκτρονικού εγκεφάλου, ο οποίος σε λίγα χρόνια μάλλον θα είναι κβαντικός, σαν τον ανθρώπινο. Μέχρι σήμερα όλες αυτές οι "προθέσεις' θεωρούνται ευλογία και δοξάζουμε την επιστήμη που τις εφηύρε. Οταν αυτές οι προθέσεις θα εκτελούν πολύ μεγαλύτερο ποσοστό λειτουργιών απ' ότι ο σημερινός άνθρωπος θα εξακολουθούμε να τους είμαστε ευγνώμονες, όπως είμαστε π.χ. για τα τεχνητά εμφυτεύματα δοντιών μας. Δεν θα υπάρξει η "επανάσταση των ρομπότ" όπως στο έργο "I, robot" του Ασίμωφ, διότι απλά η τεχνητή νοημοσύνη θα εξελιχθεί σε βάθος χρόνου πάνω στο ανθρώπινο σώμα και σε αρμονική συμβίωση μαζί του. Κάτι σαν τους μύκητες πάνω στα δέντρα, που σε κάποια φάση παύεις να βλέπεις τον κορμό τους...Αλλωστε, στο δέντρο της εξέλιξης των ειδών, κάθε είδος είναι σαν ένα κλωνάρι που φυτρώνει όλο και πιο ψηλά στον κορμό, αλλά φτάνει μόνο μέχρι κάποιο μήκος και μετά σταματάει. ενώ εμφανίζεται πιο πάνω απ' αυτό ένα καινούριο. Ηδη το κλωνάρι του Homo sapiens είναι αρκετά μακρύ και πιθανόν, όπως εκείνο του homo Neandertalis να πάψει να επεκτείνεται και πάνω απ' αυτό να φυτρώσει το κλωνάρι του homo arificialis το οποίο δεν θα είναι και το τελευταίο, διότι δεν αποκλείεται μετά απ' αυτό να περάσουμε στον κλάδο του homo spiritualis όπου ο "άνθρωπος"θα έχει μετατραπεί σε απλό συστατικό μιάς "σκεπτόμενης σφαίρας νοημοσύνης" της "νοόσφαιρας" όπως την απεκάλεσε ο Teillard de Chardin, ήδη απ' το 1974 στο βιβλίο του "Το Ανθρώπινο φαινόμενο"...

ΑΠΟΣΤΟΛΗ ΣΧΟΛΙΟΥ

Τα δεδομένα σας είναι ασφαλή! H διεύθυνση email δε θα δημοσιευθεί. Τα στοιχεία θα χρησιμοποιηθούν αποκλειστικά για τη δυνατότητα σχολιασμού στο antinews.gr .

Tα πεδία με αστερίσκο (*) είναι υποχρεωτικά.