De fleste organisasjoner snakker om effektivitet, måloppnåelse og prestasjon.
Men langt færre snakker om det som egentlig avgjør om mennesker holder ut over tid:
hvordan de har det på innsiden.
For stress handler sjelden bare om for mye å gjøre.
Det handler ofte om for lite rom.
For lite rom til å kjenne etter, tenke gjennom, regulere følelser og forstå egne reaksjoner før de setter seg i kroppen – og i arbeidshverdagen.
I dag skal vi snakke om selvforståelse i møte med kunstig intelligens.
Om hva som skjer når teknologi beveger seg inn i et område som tradisjonelt har vært forbeholdt mennesker: refleksjon, indre liv og psykisk helse.
Og denne gangen gjør vi det med et tydelig blikk mot arbeidslivet.
For hva hvis psykisk helse på jobb ikke bare handler om fravær av sykdom?
Hva hvis det handler om evnen til å være i en aktiv relasjon til sitt eget indre liv – også på kontoret?
Om å forstå egne reaksjoner før de blir til sykefravær, konflikter eller sammenbrudd.
Bakgrunnen for denne episoden er at jeg og min partner Espen Veierød nylig gjestet Lederpodden, hvor vi snakker nettopp om dette:
Hvordan kunstig intelligens kan brukes forebyggende i møte med stress og psykisk slitasje – ikke ved å overvåke ansatte, men ved å gi mennesker et rom for refleksjon.
Utgangspunktet for samtalen er prosjektet vårt BeBalanced.ai – et mentalt treningsstudio og en AI-veileder bygget på over 20 års klinisk erfaring, SinnSyn-universet og psykologisk teori.
Ikke som en «AI-terapeut», men som et verktøy for selvforståelse: en samtalepartner som hjelper mennesker å tenke bredere, tåle mer og få bedre kontakt med seg selv – før det smeller.
I denne episoden får du høre samtalen fra Lederpodden.
Og mot slutten vil jeg også bruke tid på å reflektere høyt rundt skepsisen og de kritiske innspillene prosjektet har fått:
Hva er de reelle farene?
Hva bør vi være varsomme med?
Og hvorfor tror jeg likevel at dette kan være et meningsfullt bidrag i spenningsfeltet mellom teknologi og psykisk helse?
Dette er en episode om kunstig intelligens.
Men først og fremst er det en episode om mennesker.
Litt om arbeidsliv.
Og om hvordan selvforståelse kanskje befinner seg som en litt overraskende mulighet i en digital tidsalder.
Når man beveger seg inn i et felt som kunstig intelligens og psykisk helse, er det umulig å gjøre det uten å møte skepsis. Og det er slik det skal være. Skepsis er ikke motstand mot utvikling; det er en form for omsorg for det vi risikerer å skade hvis vi går for raskt, for skråsikkert eller for teknologibegeistret frem.
Noe av kritikken vi har møtt handler om avhengighet: om vi lager et system som belønner bruk, som holder folk inne i en plattform, som trekker oppmerksomheten bort fra livet og relasjonene der ute. Det er et viktig spørsmål, for teknologihistorien gir mange gode grunner til å være urolig for nettopp dette. Vi vet at apper kan bli vanedannende. Vi vet at belønningssystemer kan kapre motivasjon. Og vi vet at mennesker i sårbare situasjoner lett kan knytte seg til det som gir rask lindring.
Men her er mitt utgangspunkt som kliniker et annet: Min erfaring er ikke at mennesker i dag er for mye i kontakt med sitt indre liv, men for lite. Min «samfunnsdiagnose», om man kan bruke et så stort ord, er at stadig flere mennesker lever i en konstant distraksjonsøkonomi. Hvert mellomrom fylles med stimuli. Stillhet blir ubehagelig. Etterpåklokskap kommer for sent. I det landskapet er det ikke det indre arbeidet som truer med å bli avhengighetsskapende – det er fraværet av det.
BeBalanced er ment som et rom som går i motsatt retning av dette. Ikke et mentalt spa, men et mentalt treningsrom. Ikke et sted for å bli strøket med hårene, men et sted for å møte seg selv litt mer ærlig. Hvis det finnes en «forsterkning» i systemet, så er det for å støtte en praksis som i seg selv er krevende: å stoppe opp, skrive, reflektere, tåle egne følelser, se mønstre i seg selv. Dette er ikke atferd som vanligvis skaper avhengighet. Det er atferd som ofte skaper motstand.
En annen kritikk handler om at vi risikerer å normalisere at mennesker «snakker med en maskin» i stedet for med andre mennesker. At dette kan bekrefte en allerede eksisterende følelse av at ingen vil høre, at ingen kan møte dem, at det er tryggere å vende seg innover i teknologi enn utover i relasjon. Det er en reell fare, og det ville vært uansvarlig å benekte den.
Samtidig er det viktig å erkjenne hvor vi faktisk befinner oss. Mange mennesker er allerede alene med sitt indre liv. Ikke fordi de ønsker det, men fordi terskelen for hjelp er høy, fordi relasjoner er vanskelige, eller fordi språket for egne følelser er svakt utviklet. I det landskapet ser jeg ikke BeBalanced som en erstatning for relasjon, men som et mellomrom. Et sted der indre erfaring kan få språk, slik at den i neste omgang lettere kan deles med et menneske. Psykologisk sett vet vi at det å formulere erfaring for seg selv ofte er et nødvendig første steg før man kan formulere den for andre.
Her blir også dagbokpraksisen viktig. Det er ikke «vår dagbok». Det er brukerens. Man kan skrive eller lese inn refleksjoner, vende tilbake til dem, og velge om de skal inngå i samtaler senere. Dette bygger på en lang tradisjon i psykologi for å bruke språk som regulerings- og integreringsverktøy. James Pennebakers forskning på ekspressiv skriving viser nettopp hvordan det å sette ord på emosjonelle erfaringer ikke bare lindrer, men strukturerer. Det handler ikke om å gjenta følelsen, men om å gi den form. Når erfaring får form, blir den mulig å forholde seg til. Når den blir mulig å forholde seg til, blir den også mulig å endre.
Noe av skepsisen retter seg også mot teknologien selv: mot OpenAI, mot overvåkning, mot uklare datalinjer og politiske implikasjoner. Her er det viktig å være ærlig: Vi er to mennesker som bygger dette, ikke en global plattform. Vi har gjort det vi faktisk kan gjøre: vi samler ingen identifiserbare data, vi krever ingen navn eller e-post, og det er teknisk umulig for oss å vite hvem brukeren er. AI-veilederen er ikke en generisk chatbot, men bygget som en RAG-modell på mitt eget materiale – bøker, foredrag, podkaster, tekster. Det betyr at samtalene er forankret i et bestemt menneskesyn og en bestemt terapiforståelse, ikke i internettets samlede stemningsleie.
Men det ville være uærlig å si at dette gjør feltet ufarlig. Det gjør det bare mer håndterlig. Derfor er ambisjonen vår ikke å være svaret, men å være en del av en forsiktig utforskning: Hva skjer hvis vi bruker teknologi til å styrke refleksjon, i stedet for å erstatte den? Hva skjer hvis vi bruker kunstig intelligens som speil, ikke som autoritet?
Her kommer vi til det kanskje viktigste punktet: forståelsen av hva terapi og selvutvikling egentlig er. For meg handler ikke psykisk helse om å finne ut hva som er rett og galt med seg selv. Den handler om å utvide det indre rommet. Å kunne romme flere følelser samtidig. Å tåle ambivalens. Å kunne se seg selv fra flere vinkler enn én. Derfor har vi vært opptatt av at AI-veilederen ikke skal gi svar, men stille spørsmål. Ikke kategorisere, men perspektivere. Ikke bekrefte ethvert utsagn, men undersøke det.
I denne forstand er forskjellen mellom en vanlig chatbot og det vi forsøker å bygge, ikke teknisk alene, men ideologisk. Det ene er designet for å svare. Det andre er designet for å åpne. Det ene for å løse. Det andre for å utforske.
Og så finnes det en mer eksistensiell kritikk: at vi bidrar til en tidsånd der mennesker vender seg stadig mer innover, stadig mer mot selvforståelse, stadig mer mot egen psyke – på bekostning av fellesskap, handling og uenighet. Også dette er et viktig korrektiv. For selvutvikling kan bli navlebeskuelse. Terapi kan bli et lukket kretsløp. Psykologisk språk kan bli en måte å slippe å leve på.
Men igjen: her tror jeg problemet ikke er for mye indre arbeid, men for lite sammenheng mellom indre arbeid og ytre liv. Målet vårt er ikke å holde mennesker inne i refleksjon, men å gi dem bedre forutsetninger for å handle. For å velge. For å tåle relasjoner. For å stå i arbeid. For å møte uenighet. Et større indre rom gir ofte større ytre handlefrihet, ikke mindre.
Det er dette som er ambisjonen med BeBalanced.ai. Ikke å erstatte terapi. Ikke å erstatte mennesker. Ikke å gi svar. Men å støtte en praksis som allerede finnes i terapirommet: å sette ord på erfaring, utforske mønstre, tåle følelser og tenke litt større om hvem man er og hvem man kan være.
Jeg vet ikke hvor dette vil ende. Og jeg tror det er sunt å si det høyt. Dette er ikke en ferdig løsning på et ferdig problem. Det er et forsøk. Et eksperiment. Et prosjekt drevet av både uro og håp. Uro for alt som kan gå galt. Håp om at vi kan bruke teknologi til å støtte noe dypt menneskelig: evnen til å forstå oss selv litt bedre enn i går.
Hvis det finnes en målestokk for om dette er verdt det, er det ikke antall brukere. Det er ikke hvor lenge folk blir i appen. Det er om noen mennesker får litt mer rom på innsiden. Litt mer språk. Litt mer mot til å møte seg selv – og deretter møte andre.
Og hvis vi klarer det, da er risikoen i det minste tatt for noe som er verdt å risikere.



