Viðauki B: Gagnaöryggi og persónuvernd í heimi gervigreindar

EFNISYFIRLIT

  1. Inngangur að öruggri notkun gervigreindar
  2. HLUTI I  Greining á helstu gervigreindarþjónustum
  3. HLUTI II  Mat á Gervigreindarlausnum innan Háskólans á Akureyri
  4. HLUTI III  Uppfærðar Leiðbeiningar og Stefnumörkun fyrir Háskólann
  5. HLUTI IV  Viðaukar og Yfirlitstöflur
  6. Lokaorð: Ábyrgur rammi fyrir örugga nýsköpun

Nýtt landslag áhættu: Inngangur að öruggri notkun gervigreindar

Tilgangur og samhengi

Þetta skjal er fylgiskjal og ítarleg útfærsla á þeim meginreglum sem settar eru fram í Leiðbeinandi stefnu um ábyrga og siðferðilega notkun gervigreindar við Háskólann á Akureyri (hér eftir nefnd „meginstefna“).

Meginstefnan heimilar notkun gervigreindarverkfæra að uppfylltum ströngum skilyrðum um persónuvernd, örugga gagnameðferð, höfundarrétt og akademískan heiðarleika.

Tilgangur þessa fylgiskjals er að veita þá ítarlegu, tæknilegu og lagalegu greiningu sem nauðsynleg er til að túlka og framfylgja þessum skilyrðum í síbreytilegu tækniumhverfi. Skjalið er ætlað öllu háskólasamfélaginu, nemendum, kennurum, rannsakendum og stjórnsýslustarfsfólki, sem grundvallarleiðarvísir um örugga og ábyrga nýtingu þessarar umbyltandi tækni. Skjalið verður uppfært eftir þörfum en er ætlað að endurspegla og tryggja að notendur séu meðvitaðir og upplýstir um þær kröfur sem gerðar eru til notkunar gervigreindar og hvernig mismunandi þjónustur fara með gögn notandans.

Síbreytilegt áhættulandslag

Greining á helstu gervigreindarlausnum sýnir fram á grundvallaráhættu sem fylgir notkun stórra mállíkana (LLM). Sú áhætta felst í því að gögn notenda eru send til vinnslu á netþjónum þjónustuaðila sem er grundvallarmunur frá hefðbundnum, staðbundnum hugbúnaði. Þróunarhraði á þessu sviði er fordæmalaus og ný líkön koma reglulega fram á sjónarsviðið, auk þess sem Háskólinn á Akureyri (HA) hefur gert tiltekin verkfæri aðgengileg fyrir allt háskólasamfélagið. Þessi þróun kallar á dýpri og yfirgripsmeiri greiningu sem færir umræðuna frá almennum meginreglum yfir í sértækt mat stutt sönnunargögnum á einstökum þjónustuaðilum og þjónustustigum.

Tveir hornsteinar raunverulegs gagnaöryggis

Greiningin í þessu skjali leiðir í ljós afgerandi niðurstöðu: raunverulegt gagnaöryggi í heimi skapandi gervigreindar (genarative artificial intelligence) ræðst ekki af vörumerkjum, afköstum líkana eða því hvort greitt er fyrir þjónustuna. Það byggir á tveimur ófrávíkjanlegum stoðum:

  1. Lagalega bindandi samningsskilmálum: Fyrirtækjalausnir sem tryggja, með skýrum og lagalega bindandi hætti, að gögn viðskiptavina séu aldrei notuð til að þjálfa eða bæta líkön þjónustuaðilans.
  2. Lögsögu og gagnafullveldi: Í hvaða landi og undir hvaða löggjöf þjónustuaðilinn starfar og hvar gögn notenda eru vistuð. Fyrir evrópskan háskóla sem lýtur persónuverndarreglugerð ESB (GDPR) er þetta grundvallaratriði.

Þessir tveir þættir munu þjóna sem rauður þráður í gegnum alla greininguna og mynda grunninn að þeim áhættuflokkunum og hagnýtu ráðleggingum sem settar eru fram.

 

HLUTI I

Greining á helstu gervigreindarþjónustum

1. Grundvallarmunurinn: Þjónustustig og gögn sem viðskiptavara

Til að skilja áhættuna sem fylgir notkun gervigreindar er nauðsynlegt að átta sig á þeim grundvallarmun sem er á viðskiptamódelum þjónustuaðila. Þessi munur endurspeglast í þremur aðskildum þjónustustigum: ókeypis neytendaútgáfum, greiddum einstaklingsáskriftum og fyrirtækjalausnum.

Ókeypis neytendaútgáfur:

Í þessu líkani er notandinn ekki viðskiptavinurinn, heldur er hann hluti af vörunni. Gögnin sem notandi setur inn – spurningar, textabrot, hugmyndir – eru gjaldmiðillinn sem greitt er með fyrir þjónustuna. Þjónustuaðilar eins og OpenAI (fyrir ókeypis ChatGPT) og Google (fyrir Gemini) áskilja sér rétt til að nota þessi gögn til að þjálfa, betrumbæta og þróa líkön sín. Sjálfgefna stillingin er nánast undantekningarlaust sú að gagnasöfnun til þjálfunar er virkjuð. Notandinn þarf sjálfur að sýna frumkvæði, finna réttar stillingar og afþakka (e. opt-out) þessa notkun.

Greiddar einstaklingsáskriftir (Plus/Pro):

Hér skapast oft alvarlegur misskilningur og fölsk öryggiskennd. Þegar notandi greiðir fyrir áskrift eins og ChatGPT Plus eða Gemini Advanced er hann að kaupa afköst og aðgang að nýrri og öflugri líkönum. Hann er ekki að kaupa aukna persónuvernd. Í langflestum tilfellum gilda sömu persónuverndarskilmálar fyrir greiddar einstaklingsáskriftir og fyrir ókeypis útgáfur. Notandinn þarf enn að afþakka gagnanotkun til þjálfunar handvirkt.

Fyrirtækjalausnir (Enterprise/Business/API):

Á þessu stigi gjörbreytist viðskiptasambandið. Hér er viðskiptavinurinn fyrirtæki eða stofnun sem greiðir fyrir þjónustu þar sem gagnaöryggi er grundvallarforsenda. Gögn viðskiptavinarins eru ekki lengur gjaldmiðill heldur verðmæt eign sem ber að vernda. Allir helstu þjónustuaðilar bjóða upp á lagalega bindandi samninga sem tryggja að gögn viðskiptavinar eru aldrei notuð til að þjálfa opinber líkön þeirra. Þetta er ekki stilling sem þarf að afþakka; þetta er kjarninn í þjónustunni.


Þessi skýra aðgreining er lykillinn að öllu áhættumati: í neytendaútgáfum er sjálfgefið gert ráð fyrir að gögnin þín séu hluti af þróunarferlinu; í fyrirtækjalausnum er sjálfgefið gert ráð fyrir að gögnin þín séu alfarið þín eign og meðhöndluð sem trúnaðarmál.

2. Viðurkenndir vestrænir aðilar: OpenAI, Google, Anthropic, Meta og Microsoft

Þegar litið er til helstu þjónustuaðila með höfuðstöðvar í Norður-Ameríku og Evrópu (hér eftir nefndir „vestrænir aðilar“) kemur í ljós að þeir starfa allir eftir þeim þrískipta ramma sem lýst er hér að ofan. Þrátt fyrir samkeppni í afköstum og virkni líkana er samræmi í nálgun þeirra á gagnaöryggi á fyrirtækjastigi, sem hefur skapað ákveðinn gullstaðal á markaðnum.

Á fyrirtækjastigi er myndin samræmd. Allir þessir aðilar – OpenAI (með API, Teams og Enterprise), Google (með Workspace og Google Cloud API), Anthropic (með API og For Work), Meta (með Llama líkönin í gegnum skýjaþjónustur) og Microsoft (með Copilot for Microsoft 365 og Azure AI þjónustum) – bjóða upp á fyrirtækjalausnir sem byggja á eftirfarandi kjarnatryggingum:

Samningbundin skuldbinding um enga þjálfun:

Skýr og lagalega bindandi ábyrgð þess efnis að gögn viðskiptavinar (bæði innsláttur og úttak) séu ekki notuð til að þjálfa almenn líkön þeirra.

Gagnaeinangrun og öryggisvottanir:

Þjónusturnar eru hannaðar til að einangra gögn viðskiptavina og uppfylla stranga alþjóðlega öryggisstaðla, svo sem SOC 2 og ISO/IEC 27001.

Samræmi við regluverk:

Þjónustuaðilarnir skuldbinda sig til að uppfylla kröfur helstu persónuverndarreglugerða, þar á meðal GDPR í Evrópu.

Öflug stjórnunartæki:

Fyrirtækjaviðskiptavinir fá aðgang að stjórnborðum sem gera þeim kleift að stýra aðgangi starfsmanna og fylgjast með notkun.


Þessi samræmda nálgun á fyrirtækjastigi skapar skýran viðmiðunarramma og lágmarkskröfu fyrir alla gagnavinnslu sem Háskólinn á Akureyri ber ábyrgð á.

3. Aðrar þjónustur og lögsöguháð áhætta

Með tilkomu fjölda nýrra stórra-mállíkana, sérstaklega frá fyrirtækjum utan hins hefðbundna vestræna tæknigeira, hefur ný vídd bæst við áhættumatið: lögsöguháð áhætta (jurisdictional risk). Fyrir stofnun innan Evrópska efnahagssvæðisins, sem lýtur ströngum kröfum GDPR, er lagaleg skylda að tryggja að persónuupplýsingar séu aðeins fluttar til landa sem veita sambærilega vernd. Lagalegt umhverfi heimalands þjónustuaðila verður því aðalatriði í öllu áhættumati.

Margar þjónustur, sérstaklega þær sem reknar eru utan vestrænna réttarkerfa (t.d. í Kína), hafa notendaskilmála sem erfitt getur verið fyrir notendur innan háskólasamfélagsins að gangast við. Skilmálar þessir geta falið í sér:

  • Víðtækar heimildir til gagnanotkunar: Skýr réttur til að nota öll innsett gögn til að þjálfa og bæta líkönin, oft án möguleika á að afþakka slíkt.
  • Gagnavistun í óöruggum lögsögum: Skylda til að vista gögn í löndum þar sem persónuverndarlöggjöf er veikari en GDPR krefst og þar sem yfirvöld geta krafist aðgangs að gögnum með litlum fyrirvara.
  • Skortur á fyrirtækjalausnum: Engin fyrirtækjalausn er í boði sem veitir samningsbundna tryggingu gegn notkun gagna til þjálfunar.

Niðurstaða: Þótt forvitni um nýja tækni sé eðlileg er notkun þjónustuaðila þar sem ekki er hægt að tryggja gagnavistun innan ESB/EES (eða landa með fullnægjandi persónuverndarúrskurð) og þar sem skilmálar heimila notkun gagna til þjálfunar, ósamrýmanleg öryggiskröfum Háskólans á Akureyri. Slík verkfæri falla í áhættusamasta flokkinn þar sem notkun þeirra er alfarið á ábyrgð notandans sjálfs og er bönnuð í öllu háskólastarfi.

HLUTI II

Mat á Gervigreindarlausnum innan Háskólans á Akureyri

4. Innri spjallmenni (borg.unak.is): Öryggi tryggt með OpenAI Teams API

Háskólinn á Akureyri hefur þróað og innleitt eigin spjallmenni sem eru aðgengileg starfsfólki og nemendum í gegnum innra net skólans, Borg (borg.unak.is).

Staðfesting á tæknigrunni

Spjallmenni háskólans á borg.unak.is eru byggð á forritaskilum (API) frá OpenAI, nánar tiltekið þeirri þjónustu sem fellur undir almenna viðskipta- og fyrirtækjaskilmála OpenAI (áður þekkt sem Teams). Þetta þýðir að öll samskipti við þessi spjallmenni lúta ströngustu gagnaverndarskilmálum OpenAI.

Greining á API-verndarráðstöfunum

Með því að nota viðskipta-API OpenAI tryggir háskólinn eftirfarandi grundvallarvernd:

  • Engin notkun til þjálfunar: OpenAI ábyrgist með lagalega bindandi hætti að gögn sem send eru í gegnum API séu ekki notuð til að þjálfa eða bæta opinber líkön þeirra.
  • Eignarhald gagna: Háskólinn á Akureyri heldur fullu eignarhaldi á þeim gögnum sem send eru inn í kerfið og þeim niðurstöðum sem fást úr því.
  • Strangar öryggiskröfur: Öll gagnaflutningur er dulkóðaður og þjónustan er vottuð samkvæmt alþjóðlegum öryggisstöðlum á borð við SOC 2 Type 2 og ISO/IEC 27001.
  • Gagnageymsla og eyðing: Fyrir API-þjónustur geymir OpenAI gögn í að hámarki 30 daga í þeim tilgangi einum að fylgjast með misnotkun, en eftir það er þeim eytt.

Niðurstaða

Innri spjallmenni háskólans á borg.unak.is eru formlega flokkuð sem örugg fyrirtækjalausn. Þau uppfylla allar grundvallarkröfur um gagnavernd og öryggi. Þó skal ávallt gæta varúðar og forðast að setja gögn sem lúta sérstökum lögbundnum takmörkunum (t.d. viðkvæmar persónuupplýsingar) inn í nokkurt skýjakerfi nema brýna nauðsyn beri til og að undangengnu sérstöku áhættumati.

 

5. Sérhæfð rannsóknarverkfæri: Scite.ai

Háskólinn á Akureyri veitir öllum nemendum og starfsfólki aðgang að Scite.ai, öflugu rannsóknarverkfæri sem nýtir gervigreind til að greina vísindarit.

Tvíþætt virkni, samræmt öryggi

Scite.ai býður upp á tvo meginþætti:

  1. Tilvísanagreining (Smart Citations): Þetta er kjarnavirkni Scite.ai. Kerfið greinir hvernig birt vísindarit vitna í önnur birt rit. Notkun þessa eiginleika felur í sér að leita í og greina opinberlega aðgengileg, birt gögn. Áhættan sem fylgir þessari notkun er því hverfandi.
  2. Scite Assistant: Þetta er skapandi gervigreindarþáttur þjónustunnar þar sem notendur geta lagt fram spurningar eða hlaðið upp eigin texta til greiningar. Hér sendir notandinn sín eigin, hugsanlega óbirt og viðkvæm gögn til vinnslu.

Greining á tæknilegri útfærslu og gagnaöryggi

Scite Assistant er ekki sjálfstætt tungumálalíkan. Þjónustan er milliliður sem tengist með öruggum hætti við fyrirtækjalausnir (Enterprise API) frá viðurkenndum þjónustuaðilum á borð við OpenAI og Anthropic. Þessi tæknilega útfærsla er lykilatriði. Hún þýðir að öll gögn sem notandi setur inn í Scite Assistant lúta ströngustu gagnaverndarskilmálum þessara bakendaþjónusta. Meginatriðið er að gögnin eru ekki notuð til að þjálfa opinber líkön OpenAI eða Anthropic, í fullu samræmi við skilmála þeirra fyrir API og fyrirtækjalausnir. Gagnaverndin er því sambærileg við þá sem tryggð er í innri spjallmennum háskólans.

Niðurstaða og ráðleggingar um notkun Scite.ai

Byggt á þessari greiningu eru báðir hlutar Scite.ai taldir öruggir til notkunar innan háskólasamfélagsins.

  • Tilvísanagreining (Smart Citations): Notkun þessa hluta Scite.ai er örugg og eindregið hvatt til hennar.
  • Scite Assistant: Notkun þessa hluta er örugg fyrir vinnu með viðkvæm rannsóknargögn. Þar sem þjónustan nýtir öruggar fyrirtækjatengingar er hún hentug til að vinna með, greina og semja óbirtar rannsóknir, styrkumsóknir og önnur trúnaðargögn.

Þar sem Háskólinn á Akureyri veitir formlegan aðgang að Scite.ai er verkfærið í heild sinni flokkað sem örugg og samþykkt lausn fyrir háskólasamfélagið.

 

6. Leganto AI Syllabus Assistant: Greining á gagnaöryggi og virkni

Tengsl við Háskólann og tilgangur: Upplýsingaþjónusta og bókasafn Háskólans á Akureyri stendur að innleiðingu á nýju verkfæri, AI Syllabus Assistant, innan rafræna leslistakerfisins Leganto. Kerfið er tekið upp í samvinnu við Kennslu- og upplýsingatæknimiðstöð HA, Landskerfi bókasafna og Ex Libris, söluaðila Leganto. Markmiðið er að samræma og einfalda aðgengi nemenda að öllu námsefni á einum stað.

Greining á virkni

Verkfærið notar söfn af stór-mállíkönum til að greina kennsluáætlanir og búa sjálfkrafa til drög að rafrænum leslistum. Kennarar hlaða inn skjali (t.d. Word, PDF) og gervigreindin auðkennir tilvísanir í námsefni, dregur út upplýsingar og býr til skipulagðan leslista. Kerfið reynir síðan að tengja hverja heimild við safnkost bókasafnsins.

Gagnvinnsla og staðfesting á öryggi

Gagnaöryggi er lykilatriði. Ex Libris (sem er hluti af Clarivate) hefur gefið skýra yfirlýsingu um meðhöndlun gagna í þessu ferli. Í algengum spurningum (FAQ) um tólið kemur eftirfarandi fram:

“Are you using my data to train your AI?” “No. Your data is not used to directly or indirectly train LLMs. This feature utilizes pre-trained large language models (LLM) to process your content and create a list of resources. Your input is not stored by the large language model or used for any other purpose than to build the list.”

Þetta þýðir að gögn HA eru ekki notuð til að þjálfa gervigreindarlíkön. Kennsluáætlanir sem hlaðið er upp eru eingöngu sendar til vinnslu til að búa til leslistann og eru ekki vistaðar af mállíkönunum. Þessi stefna er í fullu samræmi við öryggiskröfur Háskólans.

Áhættuþættir og takmarkanir

Þrátt fyrir örugga gagnameðferð eru ákveðnir áhættuþættir sem varða virkni:

  • Takmörkuð nákvæmni: Ex Libris staðfestir að tólið sé ekki 100% nákvæmt. Allir listar krefjast handvirkrar yfirferðar.
  • Íslenskt efni: Gervigreindin hefur fyrst og fremst verið prófuð á ensku. Virkni með íslenskar kennsluáætlanir er stærsti staki áhættuþátturinn og krefst ítarlegra prófana.
  • Óútskýrðar villur: Söluaðili viðurkennir að sumar áætlanir vinnslist ekki án þekktrar skýringar.

Niðurstaða og ráðleggingar

Leganto AI Syllabus Assistant er öruggt tæki frá sjónarhóli gagnaverndar og fellur undir Flokk 1. Hins vegar krefst innleiðing þess varkárni. Ráðlagt er að:

  1. Skilgreina skýrt verklag um að allir sjálfvirkt myndaðir listar séu handvirkt yfirfarnir.
  2. Framkvæma ítarlegan prófunarfasa með íslensku efni áður en tólið fer í almenna notkun.
  3. Útbúa fræðsluefni sem útskýrir kosti og takmarkanir.

 

7. Aðrar þjónustur og ábyrgð notenda

Markaðurinn fyrir gervigreind er fullur af nýjum lausnum og sprotafyrirtækjum. Mikilvægt er að skilja að margar þessara lausna eru ekki sjálfstæð stór-mállíkön, heldur byggja þær á því að tengjast grunnlíkönum frá stórum vestrænum aðilum eins og OpenAI, Google, Meta (Facebook) eða Anthropic.

Scite.ai og Leganto AI Syllabus Assistant eru dæmi um þjónustur sem gera þetta á ábyrgan hátt með því að nota öruggar fyrirtækjatengingar (API) sem tryggja gagnavernd. Hins vegar eru mörg nýsköpunarfyrirtæki á markaðnum sem uppfylla ekki þessar kröfur. Slíkar þjónustur gætu notað óöruggar tengingar eða haft óljósa skilmála sem heimila notkun gagna til þjálfunar.

Því er brýnt að starfsfólk og nemendur sýni aðgát og skoði vandlega persónuverndarskilmála og gagnaöryggi hvers nýs verkfæris áður en það er notað fyrir gögn sem tengjast háskólanum.

HLUTI III

Uppfærðar Leiðbeiningar og Stefnumörkun fyrir Háskólann

8. Áhættuflokkunarkerfi fyrir gervigreindarverkfæri (tafla)

Til að gera notendum kleift að taka upplýstar og öruggar ákvarðanir er lagt til fjögurra þrepa áhættuflokkunarkerfi. Kerfið byggir á (1) samningsbundinni tryggingu gegn notkun gagna til þjálfunar og (2) lögsögu þjónustuaðilans.

Áhættuflokkunarkerfi fyrir gervigreindarverkfæri:

Áhættuflokkur Lýsing Dæmi Heimiluð gögn Aðgerðir/Kröfur
Flokkur 1: Samþykkt Miðlægt stýrð þjónusta með fyrirtækjasamning sem tryggir gagnavernd. borg.unak.is, Copilot for M365, Scite.ai, Leganto AI Öll gögn sem ekki eru sérstakar lögbundnar takmarkanir á vinnslu á eða sérstakar kröfur eða reglur gilda um. Engar sérstakar aðgerðir nauðsynlegar af hálfu notanda.
Flokkur 2: Heimilt Fyrirtækjalausn keypt af deild/einstaklingi. Krefst staðfestingar á að öryggisskilmálar séu uppfylltir. ChatGPT Teams, Claude for Work Fagleg gögn og rannsóknargögn. Notandi ber ábyrgð á að ganga úr skugga um að skilmálar séu í lagi.
Flokkur 3: Takmarkað Neytendaútgáfur (bæði ókeypis og greiddar). Gögn eru sjálfgefið notuð til þjálfunar og eru í hættu. Ókeypis ChatGPT, Gemini, Perplexity, o.s.frv. Aðeins opinber, ópersónugreinanleg og algjörlega óviðkvæm gögn. Notkun er alfarið á ábyrgð notanda. Ekki er mælt með að nota slíkar þjónustur fyrir hugverk og rannsóknargögn, nema notandi hafi gengið úr skugga um að þjónustan ábyrgist að gögn séu ekki notuð til þjálfunar
Flokkur 4: Óstutt / Á eigin ábyrgð Þjónustur sem HA styður ekki vegna verulegrar lögsögu- eða öryggisáhættu. Deepseek, Qwen (neytendaútgáfa) og aðrar þjónustur utan ESB/BNA. Aðeins opinber gögn, gögn í eigu notanda eða önnur óviðkvæm gögn. Öll notkun er alfarið á ábyrgð notandans. Háskólinn styður ekki við þessi verkfæri og mælist gegn notkun háskólanetfangs (@unak.is) til skráningar.

9. Hagnýtar ráðleggingar fyrir háskólasamfélagið

Á grundvelli áhættuflokkunarkerfisins eru eftirfarandi hagnýtar leiðbeiningar settar fram.

Fyrir nemendur:

  • Notaðu verkfæri háskólans: Fyrir öll námsverkefni er best að nota þau verkfæri sem háskólinn útvegar (Flokkur 1), svo sem Copilot og Scite.ai. Þau eru örugg fyrir þig og gögnin þín.
  • Gættu að persónuupplýsingum: Mundu að notkun á verkfærum í Flokki 3 og 4 er á þína ábyrgð. Gættu þess að setja aldrei persónugreinanlegar eða viðkvæmar upplýsingar í slíkar þjónustur.
  • Verndaðu námsvinnuna þína: Líttu á ókláruð verkefni og ritgerðir sem trúnaðargögn. Notkun á verkfærum í Flokki 3 eða 4 fyrir slík gögn er alfarið á þína ábyrgð og er eindregið frá henni ráðið.

Fyrir rannsakendur og kennara:

  1. Verndaðu hugverk: Öll óbirt rannsóknargögn, handrit og styrkumsóknir eru verðmæt hugverk. Notkun verkfæra í Flokki 3 og 4 til að vinna með slík gögn er alfarið á ábyrgð notanda og í andstöðu við stefnu háskólans um vernd hugverka.
  2. Veldu réttan flokk: Notaðu verkfæri í Flokki 1 (t.d. borg.unak.is, Copilot, Scite.ai) fyrir daglega vinnu. Ef þörf er á öflugri verkfærum skaltu tryggja að þú sért að nota lausn úr Flokki 2 (t.d. ChatGPT Team með fyrirtækjasamningi).
  3. Leiðbeindu nemendum: Kennarar bera ábyrgð á að fræða nemendur sína um þessar reglur og vísa þeim á örugg verkfæri (Flokk 1).

Fyrir stjórnsýslustarfsfólk:

  1. Einungis samþykkt kerfi fyrir viðkvæm gögn: Öll vinnsla á persónuupplýsingum nemenda eða starfsfólks, fjárhagsupplýsingum eða öðrum stjórnsýslugögnum skal eingöngu fara fram í kerfum í Flokki 1.
  2. Ábyrgð á meðferð stjórnsýslugagna: Notkun á verkfærum í Flokki 3 og 4 til að vinna með stjórnsýslugögn er alfarið á ábyrgð notanda. Slík notkun er alvarlegt frávik frá persónuverndar- og öryggisstefnu háskólans og getur falið í sér brot á henni.

HLUTI IV

Viðaukar og Yfirlitstöflur

10. Samanburðartafla – Gagnaöryggi í hnotskurn

Tafla 1: Ítarlegur samanburður á gagnaöryggi gervigreindarþjónusta

Líkan/Þjónusta Þjónustustig Gögn notuð til þjálfunar? (Sjálfgefið) Gagnaeinangrun (Fyrirtækjastig) Geymslustaðsetning gagna (Lögsaga) Helstu vottanir (Fyrirtækjastig)
ChatGPT (OpenAI) Neytandi (Ókeypis/Plus) Já (Hægt að afþakka) Nei Alþjóðleg (aðallega BNA) N/A
  Fyrirtæki (API/Teams/Ent.) Nei (Sjálfgefið) BNA/ESB (valfrjást) SOC 2, ISO 27001, GDPR, HIPAA
Gemini (Google) Neytandi (Ókeypis/Adv.) Já (Hægt að afþakka) Nei Alþjóðleg (aðallega BNA) N/A
  Fyrirtæki (Workspace/Cloud)  Nei (Sjálfgefið)  Alþjóðleg (hægt að stýra) SOC 2/3, ISO 27001, GDPR, HIPAA
Copilot (Microsoft)  Neytandi (Ókeypis/Pro)  Nei (Krefst samþykkis) Nei Alþjóðleg (aðallega BNA) N/A
  Fyrirtæki (M365/Azure) Nei (Sjálfgefið) Alþjóðleg (hægt að stýra) Alhliða Microsoft 365 samræmi 
Scite.ai Allir notendur (Assistant) Nei (Notar örugg API frá OpenAI/Anthropic) Já (í gegnum bakenda) Bandaríkin Vísar í vottanir bakenda
Leganto AI (Ex Libris/Clarivate) Fyrirtæki (Háskóli áskrift) Nei (Samkv. skilmálum) Alþjóðleg Clarivate vottanir
Þjónustur utan vestrænna réttarkerfa Neytandi (Oft eina útgáfa) Oftast Já (Ekki hægt að afþakka) Nei Oft utan ESB/BNA Fáar eða engar

Lokaorð: Ábyrgur rammi fyrir örugga nýsköpun

Greiningin í þessu fylgiskjali staðfestir með afgerandi hætti að djúp gjá er á milli neytendaútgáfa og fyrirtækjalausna í heimi gervigreindar. Í neytendaútgáfum eru gögn notandans gjaldmiðillinn. Í fyrirtækjalausnum eru gögn notandans verðmæt eign sem ber að vernda.

Við þessa grundvallarreglu bætist lögsöguháð áhætta. Fyrir Háskólann á Akureyri, sem starfar undir evrópskri persónuverndarlöggjöf, er þessi þáttur útilokunarviðmið. Þjónustur sem geta ekki ábyrgst meðferð og vistun gagna í samræmi við kröfur GDPR koma ekki til greina fyrir vinnslu á viðkvæmum gögnum.

Tilgangur þessa skjals er ekki að hefta notkun gervigreindar, heldur að skapa öruggt og fyrirsjáanlegt umhverfi þar sem háskólasamfélagið getur nýtt sér þessa öflugu tækni til fulls – til að efla rannsóknir, bæta kennslu og auka skilvirkni – án þess að fórna grundvallargildum um persónuvernd, gagnaöryggi og vernd hugverka.

Með því að veita skýra flokkun og hagnýtar leiðbeiningar er háskólasamfélagið gert betur í stakk búið til að taka upplýstar ákvarðanir. Ábyrgðin á verndun gagna hvílir á endanum á hverjum og einum notanda. Þetta skjal veitir þá þekkingu og þau verkfæri sem nauðsynleg eru til að axla þá ábyrgð af fagmennsku og festu.