Παρουσιάστηκε αθόρυβα το εργαλείο παραποίησης της τεχνητής νοημοσύνης, το Cognitive Operation 3.0 της Κίνας κατά της Ταϊβάν;

Γεγονότων Ταϊβάν).
μερίδιο

Σχόλια (14)

Τυπώνω

ΤΑΪΠΕΪ-
Καθώς η κούρσα για τις προεδρικές εκλογές στην Ταϊβάν θερμαίνεται σταδιακά, τα διαδικτυακά μέσα κοινωνικής δικτύωσης έχουν αρχίσει να κυκλοφορούν αλλοιωμένες εικόνες και κείμενα για πολιτικά πρόσωπα, πολλά από τα οποία έχουν σκοπό να επηρεάσουν την αντίληψη της Ταϊβάν για την Κίνα.

Οι παρατηρητές λένε ότι η παραπληροφόρηση που χρησιμοποιεί η Κίνα στον τρέχοντα γνωστικό της πόλεμο κατά της Ταϊβάν εξακολουθεί να είναι χονδροειδής και εύκολα αντιληπτή. Ωστόσο, στο μέλλον, εάν η γενετική τεχνητή νοημοσύνη χρησιμοποιηθεί εκτενώς για τη δημιουργία ρεαλιστικού γραφικού περιεχομένου και την κλιμάκωση των επιθέσεων στον κυβερνοχώρο κατά της Ταϊβάν, Θα έχει σοβαρό αντίκτυπο στις εκλογές της Ταϊβάν και μπορεί ακόμη και να προκαλέσει δημόσια αδιαφορία για πληροφορίες και πολιτική.

Η Ταϊβάν ήταν πάντα το κύριο πεδίο μάχης για τον γνωστικό πόλεμο της Κίνας. Τα διαδικτυακά μέσα κοινωνικής δικτύωσης κυκλοφορούν συχνά ψευδείς πληροφορίες που «λένε καλά την ιστορία της Κίνας». Πρόσφατα, καθώς οι προεδρικές εκλογές στην Ταϊβάν θερμαίνονται, αλλοιωμένες εικόνες και κείμενα για πολιτικά πρόσωπα έχουν επίσης εμφανιστεί συχνά.

Ψεύτικες εικόνες, κείμενα και εικόνες κυκλοφόρησαν συχνά στο Διαδίκτυο της Ταϊβάν

Για παράδειγμα, στις 6 Οκτωβρίου, το Κέντρο Ελέγχου Γεγονότων της Ταϊβάν αποκρυπτογράφησε ένα διαδικτυακό βίντεο με τίτλο “Κοίτα πώς ξοδεύει χρήματα η Κίνα για να σβήσει τις πυρκαγιές και πού ξοδεύουμε τα χρήματα.” Σύμφωνα με την έρευνα του κέντρου, αυτό το βίντεο Μια άσκηση για πυρκαγιά drone στην Κίνα Η επαρχία Shaanxi τον Ιούλιο χρησιμοποιήθηκε ως πραγματική σκηνή ανακούφισης από καταστροφές για να παραπλανήσει τις ψευδείς πληροφορίες ότι η τεχνολογία ανακούφισης από καταστροφές της Κίνας είναι πιο προηγμένη από την Ταϊβάν.

Για ένα άλλο παράδειγμα, στις 2 Οκτωβρίου, το κέντρο έσπασε επίσης ένα τροποποιημένο βίντεο με τίτλο “Οι πολιτικοί του πράσινου στρατοπέδου έχουν χαμηλή ικανότητα στην Κίνα… Η Tsai Ing-wen συγχαίρει την ξαδέρφη της για την προαγωγή της με ένα λευκό ελεγειακό δίστιχο.” Η έρευνα του κέντρου διαπίστωσε ότι η Ταϊβάν Πρόεδρος Tsai Ing – wen Στα αγγλικά, μια παλιά φωτογραφία που κρατούσε ένα κολλώδες μπολ ρυζιού το 2015 είχε ρετουσαριστεί ως κρατώντας ένα ελεγειακό δίστιχο και έχει κυκλοφορήσει ευρέως στο Διαδίκτυο αρκετές φορές τα τελευταία έξι χρόνια, προκαλώντας σύγχυση στο κοινό.

Παρατηρητές λένε ότι η Κίνα είναι καλή στη χρήση τεχνικών παραποίησης, όπως αλλοιωμένες εικόνες και κείμενο, καθώς και ψευδείς ισχυρισμούς για ονόματα, ώρες και τόπους ανθρώπων, για να επηρεάσει την κοινή γνώμη και το εκλογικό αίσθημα της Ταϊβάν. Ωστόσο, τέτοιες τεχνικές εξακολουθούν να είναι ωμές και δεν είναι δύσκολο να ρωγμή.

Ο Shen Mingshi, διευθυντής του Ινστιτούτου Εθνικής Ασφάλειας του Ερευνητικού Ινστιτούτου Εθνικής Άμυνας και Ασφάλειας στην Ταϊπέι, ανέλυσε ότι οι γνωστικές λειτουργίες του ΚΚΚ παράγονται κυρίως μαζικά μέσω φάρμες περιεχομένου και η αξιοπιστία του περιεχομένου δεν είναι καλή. Ωστόσο, με την ανάπτυξη της γενετικής τεχνητής νοημοσύνης (GAI) Καθώς η τεχνολογία γίνεται όλο και πιο ώριμη, προειδοποίησε ότι στο μέλλον, εάν η Κίνα χρησιμοποιήσει αυτό το πλαστό εργαλείο για να δημιουργήσει μεγάλο αριθμό προσομοιωμένων εικόνων και κειμένου και αναβαθμίσει την επίθεση στον κυβερνοχώρο στην Ταϊβάν στην έκδοση 3.0, Η καταστροφική δύναμη της σύγχυσης του πραγματικού με το πραγματικό και της σύγχυσης του κοινού θα είναι εκπληκτική.

Ο Shen Mingshi είπε στη VOA: “Όταν άρχισε να συμβαίνει για πρώτη φορά η γεωργία περιεχομένου, ήταν στην πραγματικότητα πολύ ωμή. Μπορεί να είχε δημοσιευθεί σε διαδικτυακά κοινοτικά μέσα όπως το Line ή το WeChat. Επειδή ήταν πολύ χοντροκομμένο, ήταν εύκολο να εντοπιστεί. Αλλά αν ήταν εφαρμόζει γενετική τεχνολογία AI, μπορεί να κάνει το αγρόκτημα περιεχομένου να παράγει πιο αληθινές πληροφορίες μετά από συνεχή διόρθωση και τροφοδοσία (μηχανική βαθιά εκμάθηση) από την πλευρά του αγροκτήματος περιεχομένου. Σε αυτήν την περίπτωση, ο αντίκτυπος που θα μπορούσε να έχει είναι τεράστιος.”

Το GAI υιοθετεί ένα μοντέλο μηχανικής βαθιάς εκμάθησης για τη δημιουργία νέων δεδομένων που είναι παρόμοια με τα αρχικά δεδομένα. Μπορεί να χρησιμοποιηθεί για δημιουργική εργασία, όπως η παραγωγή γραφικών, κειμένου, βίντεο και μουσικής. Μεταξύ αυτών, τα πιο κοινά παραδείγματα εφαρμογών είναι το ChatGPT , που μπορεί να παράγει έργα κειμένου, μπορεί να παραχθεί Midjourney Pictures.

Με άλλα λόγια, εάν οι διάφορες εκφράσεις της χαράς, του θυμού, της λύπης και της χαράς του Κινέζου Προέδρου Xi Jinping ή οι διάφορες στάσεις του καθιστού, του ξαπλωμένου και του ξαπλωμένου χρησιμοποιούνται μέσω μηχανικής μάθησης, ο υπολογιστής μπορεί να δημιουργήσει αυτόματα ένα ρεαλιστικό βίντεο του Xi Jinping. Ως εκ τούτου, η τεχνολογία GAI θεωρείται ως το καλύτερο εργαλείο για την παραγωγή παραπληροφόρησης στον γνωστικό πόλεμο, ειδικά επειδή η τεχνολογία που μπορεί να αναγνωρίσει περιεχόμενο προσομοίωσης GAI δεν έχει ακόμη αναπτυχθεί και είναι αδύνατο να φιλτράρει αυτόματα παρόμοιες αφηγήσεις, φωτογραφίες ή βίντεο που δημοσιεύονται από λογαριασμούς “ρομπότ” όπως στο παρελθόν Δημιουργήστε ρεαλιστικά γραφικά, κείμενο ή εικόνες και αποκρυπτογραφήστε τα.

GAI, το πιο πρόσφατο εργαλείο χειραγώγησης πληροφοριών

Ο Tseng Baiyu, πρώην αναπληρωτής διευθύνων σύμβουλος του Taiwan Democracy Laboratory στην Ταϊπέι, είπε ότι παρόλο που οι ψευδείς πληροφορίες που διαδίδονταν από πρώιμους “λογαριασμούς ρομπότ” είχαν μεγάλο εύρος επιρροής, ο αντίκτυπός τους ήταν χαμηλός επειδή ήταν εύκολο να το δει κανείς με μια ματιά.

Είπε ότι όταν η Κίνα δημιούργησε ψεύτικους λογαριασμούς στο παρελθόν, χρησιμοποιούσε συχνά δυτικές βάσεις δεδομένων φωτογραφιών χωρίς πνευματικά δικαιώματα και στη συνέχεια τις μεταμόρφωσε σε ασιατικά πρόσωπα ως avatar για τους ψεύτικους λογαριασμούς. Ωστόσο, οι εικόνες που δημιουργούνται μέσω της τεχνολογίας GAI δεν μπορούν να κριθούν με γυμνό μάτι ως πραγματικές φωτογραφίες, γεγονός που θα αυξήσει τη δυσκολία ελέγχου των ψεύτικων λογαριασμών, ειδικά του μεγάλου αριθμού μηνυμάτων που είναι δύσκολο να διακριθούν μεταξύ αληθινών και ψευδών, τα οποία διαδίδονται γρήγορα και έχουν βαθιά επιρροή.

Πάρτε, για παράδειγμα, ένα βίντεο από μια συνέντευξη με τον ιδρυτή της Microsoft, Μπιλ Γκέιτς, που κυκλοφόρησε στην κοινωνική πλατφόρμα Getter τον Μάρτιο του τρέχοντος έτους. Σε αυτό το βίντεο, το οποίο κοινοποιήθηκε επίσης ευρέως από την κοινότητα της Ταϊβάν, ο Γκέιτς επικρίθηκε από τα αυστραλιανά μέσα ενημέρωσης. Όταν ο οικοδεσπότης αμφισβήτησε την κλοπή της τεχνολογίας υπολογιστών άλλων ανθρώπων και τις τεράστιες παρενέργειες και τους θανάτους που προκλήθηκαν από το εμβόλιο για τον COVID-19, έμεινε μόνο σε δύσκολη θέση. Ωστόσο, αφού το άτομο που εμπλέκεται διευκρίνισε το βίντεο, επιβεβαιώθηκε ότι ήταν κατασκευασμένο.

Σύμφωνα με ανάλυση από τον Hsu Chi-chung, ειδικό στην τεχνολογία απεικόνισης AI και καθηγητή στο Τμήμα Στατιστικής στο Εθνικό Πανεπιστήμιο Cheng Kung στο Tainan, το βίντεο κατασκεύασε τις φωνές δύο ανθρώπων και χρησιμοποίησε τεχνολογία deepfake για να αλλάξει τα σχήματα του στόματός τους. πρόσωπα. Εάν χρησιμοποιούνταν τεχνολογία GAI, ολόκληρο το βίντεο θα ήταν ρεαλιστικό. Το αποτέλεσμα της παραχάραξης θα είναι υψηλότερο. Ωστόσο, είπε ότι η τεχνολογία GAI επί του παρόντος χρησιμοποιείται σπάνια με την τεχνολογία deep fake και χρησιμοποιείται πιο συχνά με τεχνολογίες ανίχνευσης προσώπου, αντικατάστασης προσώπου, διαγραφής αντικειμένων και επιδιόρθωσης για την αλλαγή προσώπων ή περιεχομένου, αλλά αυτό θα καταναλώσει πόρους. Ο κατασκευαστής χρειάζεται περισσότερους χρόνο και το κόστος είναι υψηλότερο.

Ο Xu Zhizhong είπε στο Voice of America: “Όλοι αντιλαμβάνονται επίσης ότι αυτές οι (τεχνολογίες) μπορούν να κάνουν κάποια άσχημα πράγματα όταν συνδυάζονται. Διαφορετικές μέθοδοι αλλοίωσης έχουν διαφορετικές αντίστοιχες τεχνολογίες ανίχνευσης και βαθιά ψεύτικους ανιχνευτές Δεν μπορούν να χρησιμοποιηθούν για την ανίχνευση του τρέχοντος GAI.”

Υπό αυτή την προϋπόθεση, είπε, μπορεί να είναι δυνατός ο εντοπισμός εικόνων GAI από συνεχείς λεπτομέρειες όπως ανθρώπινα μάτια, κείμενο φόντου ή αντικείμενα.Ωστόσο, οι έξυπνοι παραγωγοί θα προσθέτουν σκόπιμα θόρυβο ή θα συμπιέζουν αρχεία για να μειώσουν τον κίνδυνο σπασίματος.

Ο Zeng Baiyu είπε επίσης ότι η τεχνολογία deepfake βίντεο έχει υψηλό κόστος και χαμηλή απόδοση και είναι ακόμα σε στάδιο δοκιμής. Δεν υπάρχει ακόμη μεγάλος αριθμός πλαστών βίντεο με μεγάλη επιρροή ή ευρέως διαδεδομένα, αλλά υπάρχουν όλο και περισσότερα ψεύτικα κείμενα και ψεύτικοι λογαριασμοί χρησιμοποιώντας GAI.

Η τεχνολογία ανίχνευσης GAI δεν έχει ακόμη αναπτυχθεί

Ο You Zhihao, συν-οικοδεσπότης του Κέντρου Ερευνών Περιβάλλοντος Πληροφοριών της Ταϊβάν στην Ταϊπέι, περιέγραψε επίσης το GAI ως “μικρό βοηθό” για την παραγωγή περιεχομένου. Η τεχνολογία υπάρχει εδώ και πολύ καιρό και μεγάλα ιδρύματα ή χώρες έχουν επίσης επενδύσει στην παραγωγή περιεχομένου για μεγάλο χρονικό διάστημα Αλλά το πρόβλημα είναι ότι GAI Καθώς η τεχνολογία γίνεται πιο δημοφιλής, τα εμπόδια εισόδου και το λειτουργικό κόστος έχουν μειωθεί σημαντικά και υπάρχει μια αύξηση στον αριθμό των «εθελοντών παραγόντων που δεν ελέγχονται από χρήματα ή συμβόλαια» που δεν μπορούν να επαληθευτούν ή να εντοπιστούν Αυτό θα είναι ένα σημείο πόνου για τους ερευνητές του γνωστικού πολέμου και μπορεί επίσης να προκαλέσει δυσαρέσκεια και δυσαρέσκεια μεταξύ των χρηστών του Διαδικτύου.

Ο You Zhihao είπε στη Voice of America: «Καθώς όλα τα είδη ανθρώπων είναι πιο πιθανό να χρησιμοποιούν (τεχνολογία GAI), τότε αυτό το περιβάλλον πληροφοριών μπορεί να είναι πιο συγκεχυμένο ή βαρετό για το ευρύ κοινό, κάτι που μπορεί. Η συνέπεια είναι ότι οι άνθρωποι δεν θέλουν πλέον να συμμετέχουν σε συζητήσεις για τις δημόσιες υποθέσεις στο διαδίκτυο».

Είπε επίσης ότι αξιόπιστη τεχνολογία για την ανίχνευση μεγάλης κλίμακας περιεχομένου GAI δεν έχει ακόμη αναπτυχθεί, αν και δεν αποκλείεται να υπάρχουν ήδη πειραματικές τεχνολογίες στην αγορά.

Ο Zeng Baiyu είπε επίσης ότι μπορεί να υπάρχουν τεχνικά εργαλεία, αλλά είναι αμφίβολο αν μπορούν να προσδιορίσουν 100% την αυθεντικότητα, επειδή το κλειδί είναι «πιάσε ή όχι». Είναι ακόμα γραμμένο από την AI.

Ο Zeng Baiyu είπε στη Voice of America: «Περισσότερο από το 80% των ανθρώπων πιστεύουν ότι οι ψευδείς πληροφορίες έχουν σοβαρό αντίκτυπο, αλλά είναι ήδη πολύ δύσκολο να κρίνουμε τι είναι αλήθεια και τι είναι ψευδές. (Στο μέλλον) θα πρέπει επίσης να κρίνουμε αν οι άνθρωποι που λένε αυτά τα λόγια είναι αληθινοί. Οι άνθρωποι που είναι ψεύτικοι ή ψεύτικοι θα γίνονται όλο και πιο δύσκολοι. (Εάν) όλοι εγκαταλείψουν όλες τις πληροφορίες που βλέπουν στο Διαδίκτυο και δεν πιστεύουν ποτέ τίποτα που λέει κανείς, τότε η αδιαφορία του για την πολιτική θα Θα βελτιώσει και σιγά-σιγά θα οδηγήσει τη δημοκρατία σε μια κατάσταση χαμηλής συζήτησης και χαμηλής εποπτείας».

Είπε ότι αυτός μπορεί να είναι ένας από τους λόγους για τους οποίους οι προεδρικές εκλογές της Ταϊβάν φέτος είναι ακόμα πιο κρύες από ό,τι τα προηγούμενα χρόνια, ωστόσο προειδοποίησε ότι η GAI μπορεί πράγματι να βελτιώσει την πρωτοβουλία των γνωστικών λειτουργιών.

Η νέα μορφή γνωστικού πολέμου του ΚΚΚ: μικρή πλατφόρμα, πολύγλωσση

Το δεύτερο τρίμηνο “Counter Threat Report” που κυκλοφόρησε από τη Meta (πρώην Facebook) στα τέλη Αυγούστου και η “East Asia Digital Threat Report” που κυκλοφόρησε από το Microsoft Threat Analysis Center (MTAC) στις αρχές Σεπτεμβρίου κατέληξαν επίσης σε τρία παρόμοια συμπεράσματα: 1. Χρησιμοποιήστε παραγωγική τεχνητή νοημοσύνη παράγει υψηλής ποιότητας οπτικό περιεχόμενο που μπορεί να επεκτείνει αποτελεσματικά την επιρροή των μέσων κοινωνικής δικτύωσης. 2. Το περιεχόμενο χειραγώγησης πληροφοριών έχει επεκταθεί σε νέες μικρές πλατφόρμες ή φόρουμ. 3. Το περιεχόμενο έχει μεταφραστεί σε τουλάχιστον 7 γλώσσες, διευρύνοντας την εμβέλεια του γνωστικού πολέμου.

Η έκθεση της Microsoft επεσήμανε συγκεκριμένα ότι η Ταϊβάν είναι ο κύριος στόχος του γνωστικού πολέμου της Κίνας. Εκτός από τη διάδοση ταϊβανέζικων βίντεο που δημιουργούνται από την τεχνητή νοημοσύνη στο Facebook για να “καλέσει την κυβέρνηση της Ταϊβάν να παραδοθεί στο Πεκίνο” για να διεξάγει γνωστικό πόλεμο κατά της Ταϊβάν, η Κίνα συνεχίζει επίσης για τη διεξαγωγή κυβερνοεπιθέσεων σε χώρες της Ανατολικής Ασίας Επιθετικές και γνωστικές επιχειρήσεις. Επικαλούμενη στοιχεία του περασμένου έτους, η έκθεση ανέφερε ότι η Κίνα χρησιμοποίησε το GAI για να δημιουργήσει περιεχόμενο βίντεο υψηλής ποιότητας για να προσελκύσει κοινό-στόχο σε τουλάχιστον 40 γλώσσες, με πληθυσμό άνω των 103 εκατομμυρίων.

Η χειραγώγηση της κοινής γνώμης από την GAI μπορεί να προκαλέσει κρίση εθνικής ασφάλειας

Όταν η RAND Corporation, μια αμερικανική δεξαμενή σκέψης, δημοσίευσε την έκθεση “Generative Artificial Intelligence and the Rise of Social Media Manipulation 3.0” τον Σεπτέμβριο, προειδοποίησε επίσης ότι η δημοτικότητα του GAI μπορεί να προκαλέσει ζητήματα εθνικής ασφάλειας, ειδικά ότι τα μέσα κοινωνικής δικτύωσης μπορεί να ήταν κακοποιήθηκε από τον Λαϊκό Απελευθερωτικό Στρατό του Κομμουνιστικού Κόμματος της Κίνας. Ο Xi Jinping χρησιμοποίησε επίσης την τεχνητή νοημοσύνη ως όπλο για το ΚΚΚ για να χειραγωγήσει την ξένη κοινή γνώμη. Αν και οι δυνατότητες GAI της Κίνας εξακολουθούν να υστερούν σε σχέση με τις Ηνωμένες Πολιτείες, έχει εφαρμόσει ευρέως την τεχνητή νοημοσύνη στη συλλογή, την επεξεργασία και τη δημοσίευση ειδήσεων για να βελτιώσει την ικανότητά του να καθοδηγεί το κοινό γνώμη.

Η Ταϊβάν ήταν πάντα σε εγρήγορση έναντι της χειραγώγησης πληροφοριών από την Κίνα.

Ο You Zhihao από το Κέντρο Ερευνών για το Περιβάλλον Πληροφοριών της Ταϊβάν είπε ότι οι «πέντε ελλείψεις» της διαμάχης βιοπορισμού των ανθρώπων που προέκυψαν στην Ταϊβάν στις αρχές του τρέχοντος έτους: έλλειψη αυγών, έλλειψη νερού, έλλειψη φαρμάκων, έλλειψη ηλεκτρισμού και έλλειψη κρέατος είναι το αποτέλεσμα του καθορισμού της ατζέντας της Κίνας. Επιπλέον, η διπλωματία του προέδρου της Ταϊβάν Tsai Ing-wen στις Ηνωμένες Πολιτείες στις αρχές Απριλίου, οι αγορές όπλων των ΗΠΑ στην Ταϊβάν και οι επισκέψεις αξιωματούχων των ΗΠΑ στην Ταϊβάν και άλλα θέματα έχουν όλα ίχνη εμπλοκής, χειραγώγησης και διάδοσης ψευδών πληροφοριών του ΚΚΚ .

Είναι πιθανό η συμμετοχή του GAI σε γνωστικές λειτουργίες να επηρεάσει τις εκλογές της Ταϊβάν;

Καθώς πλησιάζουν οι προεδρικές εκλογές στην Ταϊβάν το 2024, ο You Zhihao προειδοποίησε ότι η χειραγώγηση πληροφοριών από το εξωτερικό μπορεί να επηρεάσει τα εκλογικά αποτελέσματα, τη διαδικασία δημοκρατικής αυτοδιάθεσης της Ταϊβάν, ακόμη και τον ενθουσιασμό των πολιτών για συμμετοχή σε συζητήσεις δημοσίων θεμάτων στο διαδίκτυο. Επομένως, μόνο με τη βελτίωση της παιδείας προσωπικών πληροφοριών και της διαφάνειας της αποκάλυψης πληροφοριών μπορεί το κοινό να αποκτήσει ανοσία στη χειραγώγηση των πληροφοριών.

Ωστόσο, ένας ψηφοφόρος από την Ταϊπέι με το επώνυμο Lin, ο οποίος δεν ήθελε να αποκαλύψει το πλήρες όνομά του, είπε στη VOA ότι οι ψηφοφόροι που έχουν δώσει εδώ και καιρό προσοχή στην πολιτική θα φιλτράρουν τις πληροφορίες μόνοι τους. Ακόμα κι αν δεν μπορούν να προσδιορίσουν το περιεχόμενο που παράγεται από την AI, την πολιτική τους στάση Θα είναι δύσκολο να επηρεαστούν. Οι ψευδείς πληροφορίες μπορούν να επηρεάσουν μόνο τον μέσο ψηφοφόρο.

Ο ειδικός σε θέματα εθνικής ασφάλειας, Shen Mingshi, είπε επίσης ότι η Ταϊβάν έχει πλούσια εμπειρία στην αντιμετώπιση του ενιαίου μετώπου του ΚΚΚ, του γνωστικού πολέμου ή της παραπληροφόρησης και οι άνθρωποι της είναι γενικά σε θέση να αντιμετωπίσουν τις αλλαγές χωρίς πανικό. Ωστόσο, κάλεσε τις κυβερνητικές υπηρεσίες να ενισχύσουν την ολοκλήρωση και να θεσπίσουν διαδικασίες για την αντιμετώπιση ψευδών πληροφοριών, όπως η διατήρηση των αρχικών πληροφοριών, η επικοινωνία με την αστυνομία και ο από κοινού εντοπισμός της πηγής με τις μονάδες έρευνας και το Γραφείο Εθνικής Ασφάλειας. Εάν η πηγή προέρχεται από τους Κινέζους Η κυβέρνηση, η Ταϊβάν θα πρέπει να λάβουν αντίμετρα, συμπεριλαμβανομένων των κατασταλτικών μέτρων, να εμποδίσουν τη διάδοση ψευδών πληροφοριών και να ζητήσουν από κυβερνητικούς εκπροσώπους, ιδιωτικά κέντρα ελέγχου γεγονότων ή μέσα ενημέρωσης να διευκρινίσουν τα γεγονότα το συντομότερο δυνατό.

Leave a Reply

Your email address will not be published. Required fields are marked *