דזשענעראַטיווע קינסטלעכע אינטעליגענץ (GenAI) האט דערגרייכט די הויכע כייפּן פון אינדוסטריע כייפּ זינט עס איז אויפגעשטאנען אויף דער סצענע אין שפּעט 2022. איצט גייט עס אריין אין וואָס גאַרטנער רופט "דער טאָל פון דיסילוזיאָנמענט" ווייל דיפּלוימאַנץ פאַרפעלן צו דערפילן די הימל-הויכע ערוואַרטונגען. אין 2023, מאַקינזי האָט געשאצט אז GenAI קען צולייגן דעם עקוויוואַלענט פון $2.6 טריליאן צו $4.4 טריליאן יערליך איבער 63 נוץ-פעלער. אבער ווייניגער ווי א יאר שפעטער, האבן ווייניגער ווי 30% פון AI פירער געטענה'ט זייערע סעאָס זענען געווען צופרידן מיטן ROI פון פּראָיעקטן, לויט גאַרטנער.

ערגער, די ביזנעס ריזיקעס פארבונדן מיטן ניצן די טעכנאלאגיע קענען זיין באדייטנד. פרעגט נאר דעלויט אויסטראליע, וואס איז לעצטנס געווארן קריטיקירט פארן ארייננעמען קינסטלעך-אינטעליגענטע ערראָרס אין א פעדעראלן רעגירונגס באריכט וואס זיי האבן געשריבן. ווי ארגאניזאציעס לויפן צו אדאפטירן די טעכנאלאגיע פאר א קאנקורענץ-פארטייל, ווערן גאַווערנאַנס שוץ-רעילס וויכטיג.

דעלאָיט איז אַוועק מיט אַ רויט פּנים

דער 237-זייַטיקער באַריכט פּראָדוצירט דורך דעלאָיט איז אָריגינעל פאַרעפֿנטלעכט געוואָרן אויף דער וועבזייטל פון דעפּאַרטמענט פון באַשעפטיקונג און אַרבעטספּלאַץ באַציִונגען אין יולי, לויט צו ריפּאָרץאירע רעזולטאַטן האָבן געוויזן אויף אַן אומאייניגקייט צווישן די סיסטעמען וואָס די רעגירונג ניצט צו אויסוואָרצלען וואוילשטאנד שווינדל און די פאַקטישע פּאָליטישע צילן. אָבער, אוניווערסיטעט פאָרשער, קריס ראַדזש, האָט באַמערקט אַז עפּעס איז נישט גאַנץ ריכטיק.

נאך ווייטערדיגע אויספארשונגען, האט ער געפונען 20 טעותים אין באריכט, אריינגערעכנט:

  • א אויסגעטראכטע ציטאט פון א פעדעראלן ריכטער, וועמענס פאמיליע נאמען איז געווען פאַלש געשריבן
  • צען רעפֿערענצן פֿון אַ בוך מיטן נאָמען "די הערשאַפֿט פֿון געזעץ און אַדמיניסטראַטיווע יושר אין דער וואוילשטאַנד־שטאַט", וואָס עקזיסטירט טאַקע נישט.
  • פאַלשע צושרייבונג פון יענעם בוך צו אַ פּראָפעסאָר אין דער אוניווערסיטעט פון סידני
  • רעפֿערענצן צו נישט-עקזיסטירנדיקע באַריכטן צוגעשריבן צו לעגאַלע און ווייכווארג אינזשעניריע עקספּערטן

אלס רעאקציע, האט דעלויט אויסטראליע באריכטעט נאר געזאגט אז די "ענין איז געווארן אויסגעגליכן גלייך מיטן קליענט." אבער די רעגירונג האט געטיילט אז די קאנסולטאנט פירמע האט מסכים געווען צו באצאלן א טייל פון די 440,000 אויסטראלישע דאלאר ($290,000) אפצאל פארן פראיעקט. אין אן אפדעיטירטער ווערסיע פונעם באריכט, זענען די טעותים לכאורה אראפגענומען געווארן און א נייע אפדעקונג האט צוגעגעבן אז אזור אפן-איי איז גענוצט געווארן צו שרייבן עס.

האַלוסינאַציעס און מער

דעלאָיט אויסטראַליע איז נישט די איינציקע וואָס געפינט זיך באַשעמט דורך קינסטלעכער אינטעליגענץ ביי דער אַרבעט. אַן אַפּריל באַריכט פֿון קאָנקורענט KPMG ריווילז אַז, בשעת 67% פון ארבייטער ניצן קינסטלעכע אינטעליגענץ (AI) צו פֿאַרבעסערן זייער פּראָדוקטיוויטעט, כּמעט זעקס פון צען (57%) מודה זיין אַז זיי האָבן געמאַכט טעותים אין זייער אַרבעט צוליב טעותים וואָס די טעכנאָלאָגיע האָט גענערירט.

האַלוצינאַציעס זענען אַ שטענדיקע אַרויסרופן, ספּעציעל ווען עפנטלעך בנימצא קינסטלעכע אינטעליגענץ מכשירים ווערן גענוצט פֿאַר זיכערע טאַסקס וואָס דאַרפן אַ הויך גראַד פון דאָמען עקספּערטיז. זיי זענען מאל, אָבער נישט שטענדיק, געפֿירט דורך אומפאַרענדיקטע אָדער פאַלשע טריינינג דאַטן. אָבער דער ריזיקירן איז אַז די קינסטלעכע אינטעליגענץ ליגט מיט אַזאַ בטחון אַז אַ ניט-עקספּערט קען פאַלן פֿאַר די האַלוצינאַציע.

אבער, האַלוצינאַציעס זענען נישט דער איינציקער ריזיקע וואָס שטאַמט פֿון קינסטלעכער אינטעליגענץ באַניץ אין דער אַרבעטספּלאַץ. באַניצער קענען אַקסאַדענטאַל טיילן סענסיטיווע קאָרפּאָראַטיווע IP אָדער קונה אינפֿאָרמאַציע אין פּראָמפּטס מיט אַ עפֿנטלעכן מאָדעל. דאָס רעפּרעזענטירט באַדייטנדיקע דאַטן ליק און קאָנפאָרמאַנס ריזיקעס, ווייל די זעלבע אינפֿאָרמאַציע קען טעאָרעטיש ווערן איבערגעגעבן צו אַנדערע באַניצער. עס איז אויך אין ריזיקע פֿון גנייווע פֿון דעם מאָדעל דעוועלאָפּער. קינסטלעכע אינטעליגענץ מכשירים אַליין קענען אַנטהאַלטן וואַלנעראַביליטיז, אָדער זיין צילן אין קעגנערשע אַטאַקעס וואָס זענען דיזיינד צו שאַפֿן אַנינטענשאַנאַלע רעזולטאַטן.

די ריזיקעס זענען נישט טעאָרעטיש. די ISMS שטאַט פון אינפֿאָרמאַציע זיכערהייט באריכט 2025 אַנטפּלעקט אַז 26% פֿון בריטישע און אַמעריקאַנער פֿירמעס האָבן דערפֿאַרן אַ דאַטן-פֿאַרגיפֿטונג-אַטאַקע איבערן פֿאַרגאַנגענעם יאָר. און אַ דריטל (34%) זענען באַזאָרגט וועגן דער פֿאַרשפּרייטונג פֿון שאָטן-אינטעליגענץ אין דער אָרגאַניזאַציע.

די ריזיקעס קענען ווערן פארשטארקט מיט דער ברייטער אדאפטאציע פון ​​אגענטישע קינסטלעכע אינטעליגענץ, וואס איז דיזיינט צו ארבעטן אויטאנאמיש איבער ארבעטס-פלוסן מיט פיל ווייניגער מענטשלעכע אויפזיכט כדי צו ענדיגן אויפגאבעס. די זארג איז אז עס קען נעמען פיל לענגער צו דעטעקטירן ווען דער אגענט הייבט אן זיך אויפצופירן מאדנע, אדער אויף א נישט-קאמפליענטן אופן.

פֿאַר אָרגאַניזאַציעס ווי דעלאָיט אויסטראַליע וואָס זענען אויף דער באַזע פֿון דעם פּראָבלעם, קען אַן אומגעריכט נוצן פֿון קינסטלעכער אינטעליגענץ זיי אויסשטעלן צו רעפּוטאַציע־, פֿינאַנציעלע און קאָנפֿאָרמאַנס־ריזיקעס. אין דעם באַזונדערן פֿאַל, איז דער געלטלעכער קלאַפּ געווען קליינפֿול פֿאַר אַן אָרגאַניזאַציע פֿון דעלאָיט'ס גרייס. אָבער דער אינצידענט קען פֿאַראורזאַכן פּאָטענציעלע נײַע קאַסטאָמערס צו טראַכטן צוויי מאָל איידער זיי אונטערשרײַבן אָפּמאַכן.

ISO 42001 צו דער הילף?

דאָס איז נישט דער ערשטער מאָל וואָס קינסטלעכע אינטעליגענץ האַלוצינאַציעס האָבן פֿאַרשעמט יחידים און אָרגאַניזאַציעס וואָס זאָלן וויסן בעסער. אין 2023, איז עס אַרויסגעקומען אַז אַן אמעריקאנער געזעץ פירמע האט ציטירט פאַלשע פעלער און ציטאַטן אויסגעטראַכט דורך ChatGPT אין אַ פערזענלעכע שאָדן קלאגע. דער פעדעראלער ריכטער האט דעמאָלט באַשריבן עס ווי "אַן אומגעזעענע אומשטאַנד". כאָטש דעוועלאָפּערס אַרבעטן אויף וועגן צו מינימיזירן האַלוצינאַציעס פון דעם סאָרט, וואָס מער די טעכנאָלאָגיע ווערט גענוצט אָן גענוגיקע שוץ-רעילערס און השגחה, אַלץ מער מסתּמא וועלן אַנדערע פירמעס נאָכפאָלגן אין די פֿוסטריט פון Deloitte Australia.

פֿאַר רות אַסטבורי, מיט-גרינדערין פֿון ExpandAI, איז דער פֿאַל "אַ קלאָרע דערמאָנונג אַז AI ריזיקאָ איז נישט נאָר טעכניש – עס איז אָרגאַניזאַציאָנעל און באַרירט אַלע געביטן פֿון געשעפֿט ריזיקאָ פאַרוואַלטונג." זי טענהט אַז גענוג "פֿאַרוואַלטונג, פֿאַראַנטוואָרטלעכקייט און קאָנטינויִערלעכע מענטשלעכע השגחה" האָבן קריטיש געפֿעלט, און האָבן לעצטנס געפֿירט צו אַן אינצידענט וואָס קען שאַטן די פֿירמעס רעפּוטאַציע.

"ווען קינסטלעכע אינטעליגענץ מכשירים ווערן ארויסגעברענגט אָן דעפינירטע אייגנטומערשאַפט, עטישע גרענעצן, אדער באַניץ פּאָליטיק, מאַכט איר נישט קיין אינאָוואַציע – איר גאַמבלט מיט אייער בראַנד'ס רעפּוטאַציע," זאָגט זי צו ISMS.online. "די געשעפט ריזיקעס פון נישט-רעגירטער קינסטלעכע אינטעליגענץ גייען פון דאַטן בריטשעס און פאָרורטייל ביז קאָנפאָרמאַנס דורכפאַלן און פארלוסט פון קליענט צוטרוי."

כאָטש קינסטלעכע אינטעליגענץ קען העלפֿן פֿאָרשער, זאָל עס קיינמאָל נישט פֿאַרבײַטן "אַלטמאָדישע איבערבליק, פֿאַרפֿײַנערונג און זיכערקייט פֿון פֿאַקטן", לייגט אַסטבורי צו. "וואָס איז איבערראשנדיק איז אַז דאָס איז געשען אין איינעם פֿון די גרויסע פֿיר קאָנסולטאַנטן," גייט זי ווײַטער. "קינסטלעכע אינטעליגענץ פּאַרטנערס און עלטערע קאָנסולטאַנטן לעבן און אָטעמען זייערע דאָמעינען. זיי קענען, און זאָלן, דערקענען רעפֿערענצן אָדער באַהויפּטונגען אין באַריכטן וואָס זיי האָבן קיינמאָל נישט באַגעגנט אָדער וואָס זענען קלאָר האַלוצינאַציעס."

די ענטפער קען זיין ISO 42001, וואָס איז דיזיינד געוואָרן צו העלפֿן אָרגאַניזאַציעס אויפֿשטעלן, אימפּלעמענטירן, אויפֿהאַלטן און קעסיידער פֿאַרבעסערן קינסטלעכע אינטעליגענץ פאַרוואַלטונג סיסטעמען.

"די לייזונג איז גאַנץ פּשוט: אָרגאַניזאַציעס דאַרפֿן אַ סטרוקטורירטן צוגאַנג צו קינסטלעכער אינטעליגענץ ריזיקאָ פאַרוואַלטונג, קלאָרע פּאָליטיק, טראַנספּאַרענטע באַשלוס-מאכן, און שטאַב טריינינג וואָס פֿאַרשטאַרקט פֿאַראַנטוואָרטלעכקייט אויף יעדן לעוועל. דאָס איז וואו קינסטלעכע אינטעליגענץ גאַווערנאַנס, אונטערגעשטיצט דורך אַ קינסטלעכע אינטעליגענץ פאַרוואַלטונג ראַם ווי ISO/IEC 42001, קומט אַרײַן," דערקלערט אַסטבורי.

"ISO/IEC 42001 גיט א מענעדזשמענט סיסטעם פאר קינסטלעכער אינטעליגענץ, פונקט ווי ISO 27001 טוט פאר אינפארמאציע זיכערהייט, וואס זיכערט אז אנגייענדע קינסטלעכע אינטעליגענץ גאַווערנאַנס, ריזיקאָ מענעדזשמענט, מאָניטאָרינג, און עטישע פּלאַן זענען איינגעבויט אין יעדער קינסטלעכער איניציאַטיוו."

עס איז נאך דא א שטיקל וועג צו גיין איידער קינסטלעכע אינטעליגענץ מכשירים הייבן אן צו שלאָגן גאַרטנער'ס באַרימטע פּלאַטאָ פון פּראָדוקטיוויטעט. אָבער אויב זיי ווילן דאָרטן אָנקומען, וועלן אָרגאַניזאַציעס דאַרפֿן צו פֿאַרשטיין אַז מענטשלעכע עקספּערטיז וועט שטענדיק זײַן אַ פֿאָרבעדינגונג פֿאַר געראָטענע נוצן־פֿאַלן.