Εσείς τι θα διαλέγατε; ένα Τέσλα Άλτρουιστ ή ένα Τέσλα Έγκοϊστ; Ο Harari και το φιλοσοφικό βαγόνι του.


Κάποιοι άνθρωποι μπορεί να έφερναν την αντίρρηση ότι οι αλγόριθμοι δεν θα μπορούσαν ποτέ να πάρουν σοβαρές αποφάσεις για λογαριασμό μας, γιατί οι σημαντικές αποφάσεις περιλαμβάνουν συνήθως και μια ηθική διάσταση, και οι αλγόριθμοι δεν κατανοούν την ηθική. Ωστόσο, δεν υπάρχει κάποιος λόγος να υποθέτουμε ότι οι αλγόριθμοι δεν θα μπορέσουν να ξεπεράσουν τον μέσο άνθρωπο ακόμα και στην ηθική.

Ήδη σήμερα, καθώς συσκευές όπως τα έξυπνα κινητά και τα αυτόνομα οχήματα αναλαμβάνουν αποφάσεις που παλιότερα τις μονοπωλούσαν οι άνθρωποι, αρχίζουν να αντιμετωπίζουν ηθικά προβλήματα σαν αυτά που βασανίζουν τους ανθρώπους εδώ και χιλιετίες.

Για παράδειγμα, ας υποθέσουμε ότι δύο παιδιά που κυνηγάνε μια μπάλα πετάγονται μπροστά σε ένα αυτόνομο αυτοκίνητο. Κάνοντας αστραπιαίους υπολογισμούς, ο αλγόριθμος που οδηγεί το αυτοκίνητο καταλήγει στο συμπέρασμα ότι ο μόνος τρόπος να αποφύγει να χτυπήσει τα δύο παιδιά είναι να βγει στο αντίθετο ρεύμα, κινδυνεύοντας να συγκρουστεί με ένα φορτηγό που πλησιάζει. Ο αλγόριθμος υπολογίζει ότι ο ιδιοκτήτης του αυτοκινήτου -που κοιμάται στο πίσω κάθισμα- έχει 70% πιθανότητα να σκοτωθεί. Τι πρέπει να κάνει;

Οι φιλόσοφοι συζητούν για τέτοια «προβλήματα του τραμ» εδώ και χιλιετίες (ονομάζονται προβλήματα του τραμ» γιατί τα τυπικά παραδείγματα στις σύγχρονες φιλοσοφικές συζητήσεις αναφέρονται σε αποκομμένα βαγόνια τραμ που τρέχουν μόνα τους στις ράγες και όχι σε αυτόνομα αυτοκίνητα). Μέχρι τώρα, τα επιχειρήματα αυτά είχαν ενοχλητικά μικρή επίδραση στην πραγματική συμπεριφορά, γιατί σε στιγμές κρίσης οι άνθρωποι πολύ συχνά ξεχνάνε τις φιλοσοφικές απόψεις τους και ακολουθούν τα συναισθήματα και τα ένστικτά τους.

Ένα από τα πιο κακοήθη πειράματα στην ιστορία των κοινωνικών επιστημών πραγματοποιήθηκε τον Δεκέμβριο του 1970 σε μια ομάδα φοιτητών του Θεολογικού Σεμιναρίου του Πρίνστον, οι οποίοι εκπαιδεύονταν για να γίνουν ιερείς στην Πρεσβυτεριανή Εκκλησία. Ζητήθηκε από κάθε φοιτητή να πάει γρήγορα σε μια μακρινή αίθουσα διαλέξεων και να κάνει εκεί μια ομιλία για την παραβολή του Καλού Σαμαρείτη, η οποία λέει για έναν Ισραηλίτη που ενώ πήγαινε από τα Ιεροσόλυμα στην Ιεριχώ ληστεύτηκε και χτυπήθηκε από ληστές, που τον άφησαν στην άκρη του δρόμου να πεθάνει.

Μετά από λίγο πέρασε από εκεί ένας ιερέας κι ένας Λευίτης, αλλά κι οι δύο τον αγνόησαν. Αντίθετα, ένας Σαμαρείτης -μέλος μιας θρησκευτικής ομάδας που οι Ισραηλίτες απεχθάνονταν- σταμάτησε όταν είδε το θύμα, τον φρόντισε και του έσωσε τη ζωή. Το ηθικό δίδαγμα της παραβολής είναι ότι η αξία των ανθρώπων πρέπει να κρίνεται από τη συμπεριφορά τους και όχι από τις θρησκευτικές τους πεποιθήσεις.


Οι πρόθυμοι φοιτητές έσπευσαν προς την αίθουσα διαλέξεων, προσπαθώντας να σκεφτούν στη διαδρομή πώς θα εξηγούσαν καλύτερα την παραβολή του Καλού Σαμαρείτη. Αλλά οι σχεδιαστές του πειράματος είχαν τοποθετήσει στο δρόμο τους ένα άτομο κακοντυμένο που καθόταν ακουμπισμένο σε μια πόρτα με το κεφάλι πεσμένο μπροστά και τα μάτια κλειστά. Καθώς ο κάθε ανυποψίαστος φοιτητής περνούσε βιαστικά μπροστά του, το «θύμα» έβηχε και βογκούσε αξιοθρήνητα. Οι περισσότεροι φοιτητές ούτε που στάθηκαν για να ρωτήσουν τι του συνέβαινε, πόσο μάλλον να τον βοηθήσουν. Η συναισθηματική πίεση που τους δημιουργούσε η υποχρέωση να φτάσουν γρήγορα στην αίθουσα υπερίσχυσε τη; ηθικής τους υποχρέωσης να βοηθούν τους ξένους που βρίσκονταν σε κίνδυνο.

Τα ανθρώπινα συναισθήματα υπερισχύουν των φιλοσοφικών θεωριών σε αμέτρητες άλλες καταστάσεις. Αυτό καθιστά την ηθική και φιλοσοφική ιστορία του κόσμου μια μάλλον καταθλιπτική ιστορία υπέροχων ιδανικών, και συμπεριφορών κάθε άλλο παρά ιδανικών. Πόσοι χριστιανοί γυρίζουν όντως το άλλο μάγουλο, πόσοι βουδιστές ξεπερνούν πράγματι τις εγωιστικές εμμονές και πόσοι Εβραίοι αγαπούν όντως τον πλησίον τους όσο τον εαυτό τους; Έτσι όμως έχει διαμορφώσει τον χόμο σάπιενς η φυσική επιλογή. Όπως όλα τα θηλαστικά, ο χόμο σάπιενς χρησιμοποιεί τα συναισθήματα για να παίρνει γρήγορα αποφάσεις ζωής και θανάτου. Έχουμε κληρονομήσει την οργή, το φόβο και τη λαγνεία μας από εκατομμύρια προγόνους, που όλοι τους είχαν περάσει τους πιο αυστηρούς ελέγχους ποιότητας της φυσικής επιλογής.

Δυστυχώς, αυτό που ήταν κατάλληλο για την επιβίωση και την αναπαραγωγή στην αφρικανική σαβάνα πριν από ένα εκατομμύριο χρόνια δεν συνιστά κατ’ ανάγκη υπεύθυνη συμπεριφορά στους αυτοκινητόδρομους του 21ου αιώνα. Οι μη συγκεντρωμένοι, θυμωμένοι και αγχωμένοι οδηγοί σκοτώνουν κάθε χρόνο πάνω από ένα εκατομμύριο ανθρώπους σε τροχαία δυστυχήματα. Μπορούμε να στείλουμε όλους μας τους φιλόσοφους, τους προφήτες και τους ιερείς για να διδάξουν ηθική στους οδηγούς αυτούς – αλλά στο δρόμο, τα ένστικτα του θηλαστικού και της σαβάνας θα υπερισχύσουν. Συνεπώς, οι βιαστικοί φοιτητές θα αγνοούν του; ανθρώπους που βρίσκονται σε κίνδυνο και οι οδηγοί που βρίσκονται σε κρίση θα πατάνε άτυχους πεζούς.

Η ασυνέπεια ανάμεσα στο σεμινάριο και το δρόμο είναι ένα από τα μεγαλύτερα πρακτικά προβλήματα της ηθικής. Ο Ιμάνουελ Καντ, ο Τζον Στιούαρτ Μιλ και ο Τζον Ρολς μπορεί να κάθονται και να συζητούν θεωρητικά προβλήματα της ηθικής για μέρες σε κάποια άνετη πανεπιστημιακή αίθουσα – αλλά θα εφαρμοστούν, άραγε, τα συμπεράσματά τους από κάποιον στρεσαρισμένο οδηγό στα κλάσματα δευτερολέπτου μιας έκτακτης κατάστασης; Ίσως ο Μίκαελ Σουμάχερ -ο πρωταθλητής της Φόρμουλα 1 που θεωρείται από κάποιους ο καλύτερος οδηγός στην ιστορία- να είχε την ικανότητα να σκέφτεται τη φιλοσοφία ενώ οδηγούσε ένα αυτοκίνητο· αλλά οι περισσότεροι δεν είμαστε Σουμάχερ.

Οι αλγόριθμοι των υπολογιστών, ωστόσο, δεν έχουν διαμορφωθεί από τη φυσική επιλογή και δεν έχουν ούτε συναισθήματα ούτε ένστικτα. Επομένως, σε στιγμές κρίσης θα μπορούσαν να ακολουθήσουν ηθικές οδηγίες πολύ καλύτερα απ’ ό,τι οι άνθρωποι – αρκεί να βρούμε τον τρόπο να κωδικοποιήσουμε την ηθική με ακριβείς αριθμούς και στατιστικές. Αν μάθουμε στον Καντ, τον Μιλ και τον Ρολς να γράφουν κώδικα, θα μπορούσαν να προγραμματίσουν προσεκτικά το αυτόνομο αυτοκίνητο στο άνετο εργαστήριό τους και να είναι σίγουροι ότι το αυτοκίνητο θα ακολουθήσει τις εντολές τους στον αυτοκινητόδρομο. Στην πράξη, κάθε αυτοκίνητο θα είχε για οδηγό τον Σουμάχερ και τον Καντ μαζί.

Έτσι, αν προγραμματίσουμε ένα αυτόνομο αυτοκίνητο να σταματάει και να βοηθάει αγνώστους σε κίνδυνο, θα το κάνει ο κόσμος να χαλάσει (εκτός βέβαια αν βάλετε κάποια ρήτρα εξαίρεσης για περιπτώσεις που χαλάει ο κόσμος). Με τον ίδιο τρόπο, αν το αυτόνομο αυτοκίνητο είναι προγραμματισμένο να βγει στο αντίθετο ρεύμα για να σώσει τα δύο παιδιά που βρέθηκαν στο δρόμο του, μπορείτε να είστε απόλυτα σίγουροι ότι θα κάνει ακριβώς αυτό. Πράγμα που σημαίνει πως όταν η Τογιότα ή η Τέσλα θα σχεδιάζουν το αυτόνομο αυτοκίνητό τους, θα μετατρέπουν ένα θεωρητικό πρόβλημα της ηθικής φιλοσοφίας σε πρακτικό πρόβλημα μηχανικής.

Βέβαια, οι φιλοσοφικοί αλγόριθμοι ποτέ δεν θα είναι τέλειοι. Θα γίνονται λάθη, που θα οδηγούν σε τραυματισμούς, θανάτους και απίστευτα περίπλοκες μηνύσεις. (Για πρώτη φορά στην ιστορία θα είστε σε θέση να μηνύσετε έναν φιλόσοφο για το ατυχές αποτέλεσμα των θεωριών του, γιατί για πρώτη φορά στην ιστορία θα μπορείτε να αποδείξετε την ύπαρξη αιτιακής σχέσης ανάμεσα σε φιλοσοφικές ιδέες και πραγματικά γεγονότα). Ωστόσο, οι αλγόριθμοι δεν χρειάζεται να είναι τέλειοι για να πάρουν τη θέση των ανθρώπων-οδηγών. Αρκεί να τα καταφέρνουν καλύτερα απ’ αυτούς. Δεδομένου ότι οι άνθρωποι-οδηγοί σκοτώνουν πάνω από ένα εκατομμύριο άτομα κάθε χρόνο, δεν θα είναι και τόσο δύσκολο. Στο κάτω κάτω, ποιος θα προτιμούσατε να οδηγεί το αμάξι δίπλα σας; Ένας μεθυσμένος έφηβος ή η ομάδα Σουμάχερ-Καντ;

Η ίδια λογική δεν ισχύει μόνο για την οδήγηση, αλλά και για πολλές ακόμα καταστάσεις. Για παράδειγμα, για τις αιτήσεις εργασίας. Στον 21ο αιώνα, η απόφαση αν θα προσληφθεί κάποιος ή όχι σε μια δουλειά θα λαμβάνεται ολοένα και περισσότερο από αλγόριθμους. Δεν μπορούμε να βασιστούμε σε μια μηχανή για να θέσει τους ηθικούς κανόνες – αυτό θα πρέπει ακόμα να το κάνουν άνθρωποι. Αλλά όταν θα έχει αποφασιστεί το ηθικό πρότυπο που θα ισχύει στην αγορά εργασίας -για παράδειγμα, ότι είναι λάθος να γίνονται διακρίσεις εις βάρος των μαύρων ατόμων ή των γυναικών-, θα μπορούμε να είμαστε σίγουροι ότι οι μηχανές θα εφαρμόζουν και θα τηρούν τον κανόνα αυτό καλύτερα απ’ ό,τι οι άνθρωποι.

Ένας διευθυντής μπορεί να γνωρίζει κι ακόμα να συμφωνεί ότι είναι ανήθικο να γίνονται διακρίσεις κατά των μαύρων και των γυναικών, αλλά όταν μια μαύρη γυναίκα υποβάλλει αίτηση για μια θέση, ο διευθυντής κάνει υποσυνείδητα τη διάκριση και αποφασίζει να μην την προσλάβει. Αν αφήσουμε έναν υπολογιστή να αξιολογεί τις αιτήσεις για δουλειά και τον προγραμματίσουμε να αγνοεί εντελώς τη φυλετική καταγωγή και το φύλο, μπορούμε να είμαστε σίγουροι ότι ο υπολογιστής όντως θα αγνοεί αυτούς τους παράγοντες, επειδή οι υπολογιστές δεν έχουν υποσυνείδητο. Φυσικά, δεν θα είναι εύκολο να γραφτεί κώδικας για την αξιολόγηση αιτήσεων εργασίας και υπάρχει πάντα ο κίνδυνος να περάσουν οι σχεδιαστές τις υποσυνείδητες προκαταλήψεις τους στο λογισμικό. Ωστόσο, όταν ανακαλύψουμε αυτά τα λάθη, θα είναι μάλλον πολύ ευκολότερο να διορθώσουμε το λογισμικό απ’ ό,τι να απαλλάξουμε τους ανθρώπους από τις ρατσιστικές και μισογυνικές τους προκαταλήψεις.

Είδαμε ότι η διάδοση της τεχνητής νοημοσύνης μπορεί να αποβάλει τους περισσότερους ανθρώπους από την αγορά εργασίας – όπως τους οδηγούς και τους τροχονόμους (όταν οι ταραξίες άνθρωποι θα έχουν αντικατασταθεί από υπάκουους αλγόριθμους, η Τροχαία θα είναι πια περιττή). Ωστόσο, μπορεί να υπάρχουν νέες ευκαιρίες για τους φιλόσοφους, γιατί οι γνώσεις τους -που δεν είχαν ως τώρα καμία αξία στην αγορά εργασίας- θα είναι ξαφνικά περιζήτητες. Έτσι, αν θέλετε να σπουδάσετε κάτι που θα σας εξασφαλίσει μια δουλειά στο μέλλον, ίσως η φιλοσοφία να μην είναι τόσο κακή ιδέα.

Φυσικά, οι φιλόσοφοι σπάνια συμφωνούν μεταξύ τους για τον καλύτερο τρόπο δράσης. Ελάχιστα «προβλήματα του τραμ» έχουν επιλυθεί με τρόπο που να αφήνει όλους τους φιλόσοφους ευχαριστημένους, και οι στοχαστές της συνεπειοκρατίας όπως ο Τζον Στιούαρτ Μιλ (που κρίνουν τις πράξεις ανάλογα με τις συνέπειές τους) έχουν πολύ διαφορετικές απόψεις από τους δεοντολόγους όπως ο Ιμάνουελ Καντ (που κρίνουν τις πράξεις με βάση απόλυτους κανόνες). Θα πρέπει η Τέσλα να πάρει θέση σε τόσο ακανθώδη ζητήματα για να κατασκευάσει ένα αυτοκίνητο;

Λοιπόν, ίσως η Τέσλα πρέπει να το αφήσει στην αγορά. Η Τέσλα θα κατασκευάσει δύο μοντέλα του αυτόνομου αυτοκινήτου: το Τέσλα Άλτρουιστ και το Τέσλα Έγκοϊστ. Σε μια κατάσταση έκτακτης ανάγκης, το Άλτρουιστ θα θυσιάζει τον ιδιοκτήτη του για το γενικό καλό, ενώ το Έγκοϊστ θα κάνει ό,τι μπορεί για να σώσει τον ιδιοκτήτη του, ακόμα κι αν αυτό σημαίνει να σκοτώσει τα δύο παιδιά. Έτσι, οι πελάτες θα μπορούν να αγοράσουν το αυτοκίνητο που ταιριάζει καλύτερα στη φιλοσοφική τους άποψη. Αν πουλιούνται περισσότερα Έγκοϊστ, δεν θα μπορείτε να κατηγορήσετε γι’ αυτό την Τέσλα. Στο κάτω κάτω, ο πελάτης έχει πάντα δίκιο.

Δεν πρόκειται για πλάκα. Σε μια πρωτοποριακή μελέτη που έγινε το 2015, παρουσιάστηκε σε κάποιους ανθρώπους το υποθετικό σενάριο ενός αυτόνομου αυτοκινήτου που είναι έτοιμο να χτυπήσει αρκετούς πεζούς. Οι περισσότεροι είπαν ότι, σε μια τέτοια περίπτωση, το αυτοκίνητο θα πρέπει να σώσει τους πεζούς ακόμα και με τίμημα να σκοτωθεί ο ιδιοκτήτης του. Όταν ρωτήθηκαν αν θα αγόραζαν οι ίδιοι προσωπικά ένα αυτοκίνητο προγραμματισμένο να θυσιάσει τον ιδιοκτήτη του για το γενικό καλό, οι περισσότεροι απάντησαν «όχι». Για τον εαυτό τους θα προτιμούσαν το Τέσλα Έγκοϊστ.

Φανταστείτε την κατάσταση: έχετε αγοράσει καινούργιο αυτοκίνητο, πριν όμως αρχίσετε να το χρησιμοποιείτε, πρέπει να ανοίξετε το μενού με τις ρυθμίσεις και να επιλέξετε διάφορα κουτάκια. Σε περίπτωση ατυχήματος, θέλετε το αυτοκίνητο να θυσιάσει τη ζωή σας ή να σκοτώσει την οικογένεια στο απέναντι αυτοκίνητο; Θέλετε, άραγε, έστω και να κάνετε αυτή την επιλογή; Σκεφτείτε μόνο τους καβγάδες που θα κάνετε με τον/τη σύζυγό σας για το κουτάκι που θα διαλέξετε.

Μήπως, λοιπόν, θα έπρεπε να παρέμβει το κράτος και να ρυθμίσει την αγορά θέτοντας έναν ηθικό κώδικα που θα δεσμεύει όλα τα αυτόνομα αυτοκίνητα; Κάποιοι νομοθέτες σίγουρα θα ενθουσιαστούν που θα μπορούν, επιτέλους, να φτιάξουν νόμους οι οποίοι θα τηρούνται πάντα κατά γράμμα. Άλλοι μπορεί να θορυβηθούν μπροστά σε μια τόσο πρωτοφανή και ολοκληρωτική ευθύνη.

Σε τελική ανάλυση, σε όλη την ιστορία οι περιορισμοί στη δυνατότητα επιβολής του νόμου πρόσφεραν μια καλοδεχούμενη συγκράτηση στις προκαταλήψεις, τα σφάλματα και τις υπερβολές των νομοθετών. Ήταν μεγάλο ευτύχημα που οι νόμοι κατά της ομοφυλοφιλίας και της βλασφημίας εφαρμόζονταν μόνο εν μέρει. Θέλουμε, άραγε, στ’ αλήθεια ένα σύστημα στο οποίο οι αποφάσεις μη αλάνθαστων πολιτικών θα έχουν γίνει τόσο απόλυτες όσο η βαρύτητα;

***

Επιλεγμένα αποσπάσματα από το βιβλίο του Yuval Noah Harari “21 μαθήματα για τον 21ο αιώνα” εκδόσεις Αλεξάνδρεια

Αντικλείδι , https://antikleidi.com

Σχετικά Άρθρα

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -


- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

1 σχόλιοΣχολιάστε

  • ΜΕΡΙΚΕΣ ΠΑΡΑΤΗΡΗΣΕΙΣ :
    Η τεχνητή νοημοσύνη ( Τ.Ν. ) είναι η βαθμίδα εκείνη της δημιουργίας BOHΘHMATΩΝ ( μέσα από την εμπειρία, έρευνα = ανακαλύψεις + εφευρέσεις + θεωρίες ) που επεκτείνουν τις ΔΥΝΑΤΟΤΗΤΕΣ του ανθρώπου, αλλά τελικά “απολαμβάνουν” – ΟΧΙ ΟΛΟΙ αλλά – ΚΑΠΟΙΟΙ άνθρωποι ( dissemination ). ( 1 ) Οπως ο μοχλός που βελτιώνει το μπράτσο, όπως ο φακός το μάτι κ.λπ. κ.λπ. σήμερα έχουμε φτάσει να “ενισχύουμε” πολύ πιό υψηλότερα/πολυπλοκότερα ΕΠΙΜΕΡΟΥΣ συστήματα του εγκεφάλου, μέσα από τον Η/Υ που είναι καταπληκτικό Ε Ρ Γ Α Λ Ε Ι Ο γιά συλλογή, επεξεργασία δεδομένων, προσομοιώσεις και έλέγχο αλγορίθμων. Με την Τ.Ν. – που βασίζεται στην miniaturization έχουμε εκρηκτική αύξηση ΔΥΝΑΤΟΤΗΤΩΝ γιά συστήματα που αποτελούν εκπληκτικά μεν , αλλά ΠΑΝΤΑ ΕΠΙΜΕΡΟΥΣ «πρωτογονοπρωτόγονα» ! ( χρειάζεται νεολογισμός εδώ ) ΑΝΤΙΓΡΑΦΑ συστημάτων νοημοσύνης που ΥΠΑΡΧΟΥΝ ΠΡΟ ΠΟΛΛΟΥ στη φύση ( 2 ), σαν αποτέλεσμα ΕΠΙΜΕΡΟΥΣ ( δαρβινικής ) εξέλιξης. Και όλα αυτά τα βοηθήματα τα δημιουργεί ο άνθρωπος γιατί ο εγκέφαλός του είναι το τελικό προιόν της – μέχρι σήμερα – πιό προχωρημένης δαρβινικής εξέλιξης ( 3 ) στη φύση. Τονισμός στην λέξη «επιμέρους» γιά να τελειώνουμε με το τεχνοκρατικό ( δηλ. αντιδεοντολογικό ) « κάποιο σύστημα Τ.Ν. θα ΛΕΙΤΟΥΡΓΗΣΕΙ ( ! ) ανεξάρτητα από ΚΑΠΟΙΟΝ άνθρωπο και θα ΞΕΠΕΡΑΣΕΙ ( ! ) τον άνθρωπο », Αφήγημα που υπάρχει ΠΟΛΥ ΣΥΧΝΑ στο science fiction, αποσιωπόντας ακομα ΣΥΧΝΟΤΕΡΑ την ύπαρξη κάποιου big brother . . . Τα ρομπότ είναι ανθρωπόμορφα αυτόματα συστήματα με όλο και περισσότερη τεχνητή νοημοσύνη που όμως ΚΑΝΕΝΑ δεν είναι ανεξάρτητο από τους ΣΥΓΚΕΚΡΙΜΕΝΟΥΣ ανθρώπους ( μέσα, έξω, πριν και μετά ) γύρω απ αυτά, που δεν θα έχουν την πρωτοβουλία, ευελιξία, προσαρμοστικότητα, αυθορμητισμό, το “πολύπλευρο” κ.λπ. του ανθρώπινου εγκεφάλου που είναι το προιόν της μακρύτερης βιολογικής βελτιστοποίησης στη φύση. Εξέλιξη, που με καλύτερη υγεία, παιδεία, περισσότερη ειρήνη κ.λπ. θα ΣΥΝΕΧΙΣΤΕΙ, ακόμα γρηγορότερα, γιά ακόμα περισσότερους ανθρώπους. Το πρωταρχικό πλεονέκτημα του ρομπότ δεν είναι η αύξηση της παραγωγικότητας, όσο η ανυπέρβλητη ΕΠΑΝΑΛΗΨΙΜΟΤΗΤΑ των αποτελεσμάτων τους ( βγάζουν ΣΤΑΘΕΡΗ ποιότητα, 24 ώρες, 365 μέρες, χωρίς να πληρώνονται πολύ ή λίγο ). Θα έπρεπε ΠΡΩΤΑ, αν όχι αποκλειστικά, να χρησιμοποιηθούν σε μονότονες, επικίνδυνες ανθυγιεινές δραστηριότητες και όχι για την εκπλήρωση του ονείρου για αυτόματους δούλους που δεν πληρώνονται και «δουλεύουν» για κάποιους που τους ελέγχουν ( μέσα από χρήμα, εξουσία είτε know how ) σε αντικατάσταση εργαζομένων που πληρώνονται, για δραστηριότητες, ανεξάρτητα αν αυτές είναι δημιουργικές και τελειότερες από αυτές π.χ. των ρομπότ. Γι αυτό άλλωστε τα βήματα στην τεχνολογία συνοδεύονται ( ιστορικά ΚΥΡΙΩΣ ), τουλάχιστον στην αρχή, από αρνητικό ισολογισμό «γεννήσεων – θανάτων» θέσεων εργασίας.
    Η καινοτομία στην εποχή μας δεν είναι η χρήση από users συστημάτων ΙΤ, ούτε ο προγραμματισμός , δηλ. η γραφή σε κώδικα αλγορίθμων, αλλά ΠΙΟ ΠΡΙΝ η ΣΥΛΛΗΨΗ προβλημάτων, ΑΝΑΛΥΣΗ και ΣΥΝΘΕΣΗ λύσεων, σήμερα τις λέμε αλγοίθμους. Μα αυτό ήταν ΑΝΕΚΑΘΕΝ η ΚΑΙΝΟΤΟΜΙΑ και γινόταν από ερευνητές, τεχνολόγους, μεγαλοφυείες και καλλιτέχνες. Με τον Η/Υ έχουμε ένα καταπληκτικό εργαλείο/βοήθημα. Αλλά και εδώ ισχύει το shit in, shit out, ( επιστημονική δεοντολογία, ethics ).
    ΣΥΜΠΕΡΑΣΜΑ : ΝΑΙ αλλά ΟΧΙ ΣΕ ΟΠΟΙΑ από τα σλόγκαν Τ.Ν. «ψηφιοποίηση», καινοτομία κ.λπ. ΤΕΤΟΙΑ ΒΟΗΘΗΜΑΤΑ το συζητάμε, ΠΟΙΑ και ΠΟΣΑ, αλλά OXI σε ψευδεπίγραφα «τελείως» ΑΥΤΟΝΟΜΑ π.χ. οχήματα. Άλλο η βελτιστοποίηση ( επανάσταση ) που είναι η εφεύρεση, στο γκαράζ, του ιντερνετ κ.λπ. και τελείως άλλο η βελτιστοποίησης της ταχύτητας ΚΑΤΑΚΤΗΣΗΣ της παγκόσμιας αγοράς ( μισοκρυμμένη τάση για μονοπώλιο, άρα μάλλον προς ΑΝΤεπανάσταση πάει ) που είναι ο συγκεκριμένος τρόπος εξάπλωσής του. Από το θηρίο του χρηματιστηρίου, με εκείνο το “τσάμπα”, αλλά “I agree” . . . ). Εξαρτάται ΑΠΟ ΠΟΙΟΥΣ ΚΑΙ ΓΙΑ ΠΟΙΟΥΣ θα γίνουν όλα αυτά. Αραγε με κριτήριο βελτιστοποίησης ( ως συνήθως ) το μέγιστο π.χ. του κέρδους, τσίρου, target group κ.λπ. ή για την εκάστοτε ελαχιστοποίηση του ΣΥΝΟΛΙΚΟΥ ΚΟΙΝΩΝΙΚΟΎ κόστους ( χρηματικού + περιβαλλοντικού + θέσεων εργασίας ) ? ? ? .
    ( 1 ) Ε, λοιπόν η αντίληψη περί «τεχνολογικών» επαναστάσεων είναι αφιλοσόφητη και μη ιστορική. Ξεκινάει από κάποιους που υπήρξαν εφευρέτες, αλλά κατέληξαν σε βουλιμικούς wanabe κατακτητές της παγκόσμιας αγοράς ( global players ) Η τεχνολογία είναι καταλύτης KAI OXI αντιδραστήριο, σκανδάλη KAI OXI μπαρούτι, που προκαλεί αλματώδη ( εκθετική ) κοινωνική, πολιτισμική, οικονομική εξέλιξη. Το βήμα δεν τον έκανε π.χ. η τυπογραφία, αλλά η συσσωρευμένη αντίσταση στην θρησκευτική απόλυτη δεσποτεία, η έκρηξη/επανάσταση έγινε από την κατάκτηση του πανανθρώπινου δικαιώματος – που συνειδητοποιήθηκε ΤΟΤΕ – να διαβάσει στην γλώσσα του και όχι στα λατινικά, να σχηματίσει γιά την βίβλο, ΜΟΝΟΣ του γνώμη και όχι ΜΟΝΟ από τον «ποιμένα του». Γιατί η ιστορία δεν είναι αλληλουχία πολέμων για εξουσία – ειρήνης, ακμής – παρακμής λες και όλα αυτά είναι «μετεωρολογικά» φαινόμενα αλλά σαν αλληλουχία γέννησης, εξάπλωσης ( π.χ. αναγέννηση, γαλλική επανάσταση ) αλλά και υποχώρησης ( π.χ. μεσαίωνας !, «ιερά συμμαχία ) ΠΑΝΑΝΘΡΩΠΙΝΩΝ ελευθεριών και κοινωνικών δικαιωμάτων και αντίστοιχης υποχώρησης είτε επιστροφής σε προνόμια ΜΕΡΙΚΩΝ. Γι αυτό είναι «επανάσταση» π.χ. να μπορείς να ακούς κα να βλέπεις τον ξάδερφό σου στην Αυστραλία σχεδόν ΤΣΑΜΠΑ ! ! ! , αλλά είναι και ΑΝΤΕΠΑΝΑΣΤΑΣΗ αν ο όποιος big brother μπορεί παράλληλα να προκύψει/προέκυψε ΠΙΣΩ από αυτήν την άνεση . . .
    ( 2 ) Μήπως το κολίμπρι π.χ. που μένει ακίνητο εν πτήσει δεν έχει ΕΠΙΜΕΡΟΥΣ “φυσική” νοημοσύνη πολύ πιό παλιά, πιό ώριμη και βελτιστοποιημένη από την ΕΠΙΜΕΡΟΥΣ “τεχνητή” νοημοσύνη του ελικοπτέρου + την φυσική νοημοσύνη του σχεδιαστή + πιλότου ? ΕΕΕΕΝΑ παράδειγμα, από άπειρα . . .
    ( 3 ) Μήπως η δαρβινική εξέλιξη δεν είναι βιολογική διαδικασία βελτιστοποίησης ( επιβίωσης και προσαρμογής ) οργανισμών ?. Κάτι που ΕΚΦΡΑΖΕΤΑΙ από τις μεθόδους απεικόνισης ΕΠΙΜΕΡΟΥΣ βελτιοστοποιήσεων που έχουμε στα “μαθηματικά”. Που η βελτιστοποίηση ΠΑΡΑΚΟΛΟΥΘΕIΤΑΙ και από το : «μικρή εντροπία, μεγάλη τάξη», «το λακωνίζειν εστί φιλοσοφείν ».