đ€ Debatt: Dags att vi lĂ€r oss av tidigare teknikpaniker och inte reglerar sönder AI
Sett frÄn samhÀllsnivÄ Àr problemen frÄn AI knappt mÀrkbara. Det existentiella hotet dÄ? Det baseras helt pÄ gissningar och den intellektuella grunden pÄ verklighetsfrÄnvÀnda tankeexperiment, med noll konkreta belÀgg. Gissningar ska inte ligga till grund för policy.
Dela artikeln
Den arge optimisten, Mathias Sundin, skriver i Expressen om AI-reglering, i samband med att AI Safety Summit inleds i Storbritannien.
PremiÀrminister Rishi Sunak har bjudit in vÀrldsledare för att reglera AI, men hotet de utgÄr frÄn Àr baserat pÄ Ànnu en teknikpanik.
"VĂ€rlden hade precis pustat ut över att millenniebuggen â som nĂ€r klockan slog tolv pĂ„ nyĂ„rsafton 1999 skulle lamslĂ„ vĂ€rlden och kosta tusentals miljarder â inte orsakade nĂ„gon skada alls.
Ănnu en grundlös teknikpanik kunde lĂ€ggas till handlingarna. Men det dröjde inte lĂ€nge innan det var dags igen. Den 2 januari 2000 publicerades ett öppet brev, underskrivet av över 200 forskare, som varnade för farorna med genmodifierade vĂ€xter och mat (GMO). De krĂ€vde ett omedelbart stopp. SĂ„ blev det. Ett moratorium och vĂ€rldens hĂ„rdaste anti-GMO-regler infördes i EU.
SĂ„ hur farligt har GMO visat sig vara? Inte alls."
"SkrÀmselpropaganda fÄr riktiga och allvarliga konsekvenser. Genom historien har vi gÄng pÄ gÄng sett dessa teknikpaniker, men aldrig tycks vi lÀra oss.
Nu hÀnder det igen. Denna gÄng Àr det artificiell intelligens, AI, som ska skada och utplÄna mÀnskligheten.
Ăven nu skrivs öppna brev med krav pĂ„ pauser och moratorium. PĂ„ initiativ av Storbritanniens premiĂ€rminister, Rishi Sunak, samlas nu vĂ€rldsledare till en AI Safety Summit.
Kommer man dÀr överens om hÄrda AI-regleringar har mÀnskligheten skjutit sig i foten."