Abstract
<jats:p>Denne artikkelen presenterer og diskuterer konseptuelle rammeverk som ledere kan anvende for å vurdere når kunstig intelligens (KI) i form av språkmodeller kan bidra til bedre beslutninger. Utgangspunktet vårt er at teknologien bak KI i hovedsak bygger på prediksjonsmodeller, og at nytteverdien av disse vil være avhengig av hvilke typer beslutninger den anvendes på. Vi vil problematisere en utbredt antakelse om at språklig formulert informasjon kan likestilles med kunnskap i organisasjoner, og viser hvordan denne antakelsen kan føre til feil bruk av KI i ledelse. Vår diskusjon bygger spesielt på det såkalte Cynefin-rammeverket (uttales ku-nev-in) for å dele inn beslutningsoppgaver etter grad av forutsigbarhet, usikkerhet og årsakssammenhenger. Deretter knytter vi diskusjonen opp mot skillet mellom beregnelige problemer, estimerbare hemmeligheter og åpne mysterier. Til sammen utgjør disse begrepene et beslutningsheuristisk rammeverk for bruken av KI som støtte til analyse og prediksjon. Rammeverket åpner for å vise hvor menneskelig dømmekraft, fortolkning og koordinasjon må være viktigere enn teknologi. Artikkelens bidrag er tredelt. For det første argumenterer vi for at språkbasert KI er en teknologi som er avhengig av den epistemiske struktur i beslutninger. For det andre beskriver vi hvordan Cynefin-rammeverket kan fungere som et praktisk verktøy for avgrenset bruk av KI i organisasjoner. For det tredje illustrerer vi rammeverkets analytiske nytteverdi gjennom konkrete eksempler fra markedsføringsledelse, knyttet til medieallokering og etterspørselsplanlegging. Artikkelen viser at effektiv innføring av KI krever mer enn teknologisk kompetanse. Ledere må forstå forholdet mellom kunnskapsformer, prediksjon, forklaring og sosial samhandling. En sentral implikasjon er at ledere ikke bør starte med spørsmålet «hvordan kan vi bruke KI?», men med «hvilken type beslutningsproblem står vi overfor?». English abstract More than Words: How to Know What AI Can (and Can't) Help You with in Organizational Life This article develops and discusses conceptual frameworks that help leaders evaluate when artificial intelligence, especially language models, can support better decision making in organizations. Our starting point is that AI is primarily a prediction technology. Its value therefore depends on the type of decision problem it is applied to. We challenge the widespread assumption that information expressed in language is equivalent to organizational knowledge, and we show how this assumption can lead to misuse of AI in management contexts. The discussion is grounded in the Cynefin framework, which classifies decision situations according to predictability, uncertainty, and the nature of causal relationships. We combine this with a distinction between calculable problems, estimable secrets, and open mysteries. Together, these concepts form a practical decision heuristic for evaluating when AI is useful for analysis and prediction, and when human judgment, interpretation, and coordination must take precedence. The article makes three contributions. First, it argues that language based AI is fundamentally constrained by the epistemic structure of the decision task. Second, it shows how the Cynefin framework can serve as a practical tool for defining the boundaries of AI use in organizations. Third, it demonstrates the analytical value of this approach through examples from marketing management, including media allocation and demand planning. The central implication is that effective AI adoption requires more than technical competence. Leaders must understand the relationship between knowledge forms, prediction, explanation, and social coordination. Rather than starting with the question “How can we use AI?”, leaders should begin with “What type of decision problem are we facing?”</jats:p>