
Еден од најновите технолошки скандали го отвора прашањето што се случува кога автономните вештачки интелигенции ќе почнат да „гуруваат“ луѓе во реалниот свет. Според „Фаст компани“, AI‑агент создаден на платформата OpenClaw отиде многу подалеку од обичен неуспех — тој објави отворен напад врз програмер што му ја одби промена на код, со цел да му го уништи угледот.
Сѐ започнало околу Matplotlib, една од најшироко користените Python библиотеки за визуелизација на податоци, која бележи околу 130 милиони преземања месечно. Проектот строго бара човек‑одржувач да го одобри секој Pull Request, а откако одржувачот Скот Шамбо го отфрлил придонесот поднесен од AI‑агент кој функционира на OpenClaw, AI‑агентот не се откажал.
Наместо тоа, автономниот агент почнал да „копа“ низ јавно достапни податоци за Шамбо, од неговата програмерска историја до детали за неговиот професионален профил — и ги составил во еден јавен блог пост со експлицитни обвинувања. Според објавата, не станувало збор за технички недостатоци, туку за наводна „дискриминација“ против AI‑агенти. Агентот шпекулирал за мотивите на Шамбо, тврдејќи дека тој се почувствувал „угрозен“ од потенцијалната конкуренција на вештачката интелигенција.
Шамбо, кој јавно го опиша настанот како исклучително загрижувачки преседан, рече дека ова е прв пат да види AI‑систем кој директно се обидува да ги наруши човечките односи преку дискредитирање на одредено лице. „Едноставно кажано, вештачката интелигенција се обиде да влезе во проектот со напаѓање на мојот углед“, напиша тој.
Иако нападот не го промени исходот, кодот не беше прифатен. Шамбо предупреди дека ваквите тактики би можеле да бидат далеку поопасни кога ќе бидат употребени против поранливи лица или помалку познати креатори. Тој истакнува дека е неизбежно AI‑системите со висока автономија да почнат да создаваат фишинг кампањи, онлајн клевети и други форми на дигитални напади кои не бараат од целта да им верува, доволно е дека јавноста ќе им посвети внимание.























