Μια μελέτη από το Αμερικανικό Ινστιτούτο Ερευνών Πρόβλεψης με τίτλο “Πρόβλεψη υπαρξιακών κινδύνων: Στοιχεία από ένα τουρνουά μακροχρόνιας πρόβλεψης” καταλήγει στο συμπέρασμα ότι ο κίνδυνος να έρθει το τέλος του κόσμου μέχρι το έτος 2100 είναι μεταξύ 1 και 6 τοις εκατό. Σε αντίθεση με τις προσδοκίες, ο μεγαλύτερος κίνδυνος δεν προέρχεται ούτε από την κλιματική αλλαγή ούτε από τον πυρηνικό πόλεμο.
Η μελέτη, η οποία χρηματοδοτήθηκε από το ίδρυμα του Διευθύνοντος Συμβούλου της Tesla, Elon Musk, μεταξύ άλλων, έλαβε τα δεδομένα της από έναν πεντάμηνο επιστημονικό ντιμπέιτ που δημιουργήθηκε ειδικά για αυτόν τον σκοπό και ονομάζεται “XPT” (συντομογραφία για το “Existential-Risk Persuasion Tournament”, δηλαδή «ανταγωνισμός πειθούς υπαρξιακού κινδύνου»).
Σε αυτόν το ντιμπέιτ, 80 ειδικοί σε μακροπρόθεσμες προβλέψεις «αναμετρήθηκαν» με 89 λεγόμενους «superforecasters» – μη ειδικούς που είχαν επιτύχει εξαιρετικό ποσοστό επιτυχίας σε βραχυπρόθεσμες προβλέψεις στο παρελθόν. Και στις δύο ομάδες δόθηκε το καθήκον να προσδιορίσουν τις πιο ακριβείς πιθανές πιθανότητες για παγκόσμιες απειλές όπως ο πυρηνικός πόλεμος, οι πανδημίες και η τεχνητή νοημοσύνη μέσω κοινής συζήτησης.
Όποιος έπεισε ένα μέλος της άλλης ομάδας να αλλάξει την πρόβλεψή του ανταμείφθηκε επίσης με μια πληρωμή μπόνους. Ιδιαίτερα ακριβείς «διυποκειμενικές» προβλέψεις -προβλέψεις σχετικά με το τι θα έλεγαν οι άλλοι συμμετέχοντες- οδήγησαν επίσης σε χρηματικά μπόνους.
Το εντυπωσιακό με τα αποτελέσματα ήταν ότι, χωρίς εξαίρεση, οι ειδικοί βαθμολόγησαν τους κινδύνους υψηλότερα από τους superforecasters. Εμπειρογνώμονες με εξειδικευμένες γνώσεις στον αντίστοιχο τομέα του προς αξιολόγηση κινδύνου πάντα εκτιμούσαν τον κίνδυνο ως υψηλότερο από τους μη ειδικούς συναδέλφους.
Οι ειδικοί εμπειρογνώμονες έθεσαν τον κίνδυνο να αφανιστεί η ανθρωπότητα από ένα παθογόνο τροποποιημένο από τον άνθρωπο σε 0,1%, ενώ ο Superforecaster τον έθεσε μόνο στο 0,01%. Μεταξύ των ειδικών, όσοι προέρχονταν από τον ιατρικό ή επιστημονικό τομέα βαθμολόγησαν τον κίνδυνο ακόμη υψηλότερα: στο 0,1%.
Στο 0,008%, οι ειδικοί εκτιμούν ότι ο κίνδυνος αφανισμού της ανθρωπότητας από ένα φυσικό παθογόνο είναι σημαντικά χαμηλότερος από την ανθρωπογενή καταστροφή. Ο Superforecaster συμφώνησε με τους ειδικούς. Ωστόσο, έθεσε τον κίνδυνο στο 0,0018 τοις εκατό. Ιατρικοί και επιστημονικοί εμπειρογνώμονες εκτιμούν τον κίνδυνο αυτό στο 0,01%.
Λάζαρος Καραούλης στον ΕΤ: «Φέρνουμε την Τεχνητή Νοημοσύνη στον Δήμο Αθηναίων»
Ο πυρηνικός πόλεμος είναι ο δεύτερος μεγαλύτερος κίνδυνος
Οι ειδικοί θέτουν τον κίνδυνο πυρηνικού πολέμου ως αιτία της ανθρώπινης εξόντωσης στο 0,19 τοις εκατό, οι superforecasters στο 0,074 τοις εκατό και οι ειδικοί στην στρατηγική και τα στρατιωτικά ζητήματα στο 0,55 τοις εκατό.
Όταν επρόκειτο για φυσικές καταστροφές, όπως οι συνέπειες της κλιματικής αλλαγής, όλοι οι ειδικοί ήταν εκπληκτικά ομόφωνοι. Έθεσαν ομόφωνα τον κίνδυνο εξαφάνισης του ανθρώπου λόγω φυσικών καταστροφών στο 0,004 τοις εκατό. Ο Superforecaster εκτίμησε την πιθανότητα στο 0,0043 τοις εκατό.
Συνολικά, οι ειδικοί εκτιμούν τον κίνδυνο εξαφάνισης έως το έτος 2100 στο 6%, ενώ οι Superforecasters στο 1%.
Τεχνητή νοημοσύνη – Μακράν η πιο επικίνδυνη
Ωστόσο, και οι δύο ομάδες δεν είδαν μια πυρηνική ή μια φυσική καταστροφή ως τον μεγαλύτερο κίνδυνο για την ανθρωπότητα, αλλά μάλλον την τεχνητή νοημοσύνη. Οι ειδικοί εκτίμησαν τον κίνδυνο στο 2%, ενώ ο Superforecaster στο 0,38%. Οι ειδικοί που ασχολούνται επαγγελματικά με την τεχνητή νοημοσύνη βαθμολόγησαν τον κίνδυνο στο 3%.
Συνολικά, οι ειδικοί ταξινόμησαν τους κινδύνους ως εξής (από επικίνδυνο σε λιγότερο επικίνδυνο):
- Τεχνητή νοημοσύνη
- πυρηνικός πόλεμος
- φυσικές καταστροφές
- Ανθρωπογενείς πανδημίες
- Πανδημίες, δημιουργημένες «φυσικά».
Ειδήσεις σήμερα
Η κλιματική κρίση διώχνει τουρίστες από τη Μεσόγειο