Commit 4f5fb551 authored by Carsten Eie Frigaard's avatar Carsten Eie Frigaard
Browse files

update

parent 60f9a10f
COURSE
DEFS
DEFS
[HOMEHTML] https://itundervisning.ase.au.dk/ITMAL_E21/Html
[HOME] https://itundervisning.ase.au.dk/ITMAL_E21
[FIGS] https://itundervisning.ase.au.dk/ITMAL_E21/Html/Figs
......@@ -34,14 +34,14 @@ CONTENT Litteratur
\dd{\link{O'Reilly link,https://www.oreilly.com/library/view/hands-on-machine-learning/9781492032632/}}
\dd{[BR]}
\dl{
\dt{\i{NOTE 1:}}
\dd{Dette er anden udgave (Second Edition/2.ed) af Géron's \i{Hands-on},
undgå at bruge førsteudgaven, idet den benytter TensorFlow direkte istedet for
\dt{\i{NOTE 1:}}
\dd{Dette er anden udgave (Second Edition/2.ed) af Géron's \i{Hands-on},
undgå at bruge førsteudgaven, idet den benytter TensorFlow direkte i stedet for
Keras, og desuden har flere mangler.}
\dt{\i{NOTE 2:}}
\dd{I PDF udgaven (Early Release, June 2019, 2019-04-22: Fifth Release)
svarer sidetal og nogle kaptitler ikke til den officielle bog udgave ovenfor!}
svarer sidetal og nogle kapitler ikke til den officielle bog udgave ovenfor!}
}
}
......@@ -61,7 +61,7 @@ CONTENT Litteratur
\dd{[BR]}
\dl{
\dt{\i{NOTE:}}
\dd{Ikke obligatorisk, kun få afsnit og figure bruges herfra.
\dd{Ikke obligatorisk, kun få afsnit og figurer bruges herfra.
(Bog god til videregående Neural Netværks-teori
og meget brugt i ML sammenhænge.)}
}
......@@ -75,21 +75,21 @@ CONTENT Kursusforkortelser
\dl{
\dt{[\b{AI}]:}
\dd{Artificial intelligence (kunstig intelligens). Generelt bruges udtrykket ML istedet for AI i kurset.}
\dd{Artificial intelligence (kunstig intelligens). Generelt bruges udtrykket ML i stedet for AI i kurset.}
\dt{[\b{CNN}]}
\dd{Convolutional Neural Network(s), undersort at NNs, primært til billebehandling.}
\dd{Convolutional Neural Network(s), undersort at NN's, primært til billebehandling.}
\dt{[\b{DL}]}
\dd{Enten bare Deep Learning eller Deep Learning bogen af Ian Goodfellow, et. al.}
\dt{[\b{G}]}
\dd{Group, ITMAL øvelsesgruppe.}
\dt{[\b{GITHOML}]}
\dd{
\dl{
\dt{GitHub repository til [HOML],}
\dt{Github repository til [HOML],}
\dd{\link{https://github.com/ageron/handson-ml2/}}
\dt{Clone via HTTPS}
\dd{\code{git clone https://github.com/ageron/handson-ml2.git}}
......@@ -111,7 +111,7 @@ CONTENT Kursusforkortelser
}
\dt{[\b{HOML}]}
\dd{Hands-on Machine Learning af Aurélien Géron, hovedlitteratur til dette kursus. For klarhedens skyld undtales 'HOML' som Holm i Brian Holm.}
\dd{Hands-on Machine Learning af Aurélien Géron, hovedlitteratur til dette kursus. For klarhedens skyld udtales 'HOML' som Holm i Brian Holm.}
\dd{
[BR]\img{[FIGS]/brian_holm.jpg, Brian Holm (foto fra cdn-ctstaging.pressidium.com)}
[BR]\cite{https://cdn-ctstaging.pressidium.com/wp-content/uploads/2020/12/CORVOS_00000365-066.jpg}
......@@ -127,7 +127,7 @@ CONTENT Kursusforkortelser
\dt{[\b{ML}]}
\dd{Machine Learning, det generelle koncept.}
\dt{[\b{NN}]}
\dd{Neural Network(s). Normalt forstået som fully-connected neurale netværk (se også CNN).}
......@@ -135,14 +135,14 @@ CONTENT Kursusforkortelser
\dd{En opgaveaflevering, f.eks. O1 for opgaveaflevering 1.} %(opgave afleveringer hed tidligere journaler).
%\dt{[RNN:]}
%\dd{Recurrent Neural Network(s), undersort at NNs, men med indbygget \i{hukommelse}. }
%\dd{Recurrent Neural Network(s), undersort at NN's, men med indbygget \i{hukommelse}. }
\dt{[\b{SG}]}
\dd{Super-group, bestående af tre eller fire Grupper [G]'s.}
\dd{Super-gruppe, bestående af tre eller fire Grupper [G]'s.}
\dt{[\b{Q}]:}
\dd{Et specifikt spørgsmål (Question) i en journal opgave, ala Qc for opgave 'c' i et journal spørgsmål.}
\dd{Et specifikt spørgsmål (Questions) i en journal opgave, ala Qc for opgave 'c' i et journal spørgsmål.}
}
......@@ -158,7 +158,7 @@ Primære
\dl{
\dt{[GITHOML]:}
\dd{\link{https://github.com/ageron/handson-ml2/}}
\dt{Scikit-learn:}
\dt{Scikit-learn:}
\dd{\link{https://scikit-learn.org/stable/}}
\dt{Keras:}
\dd{\link{https://keras.io/}}
......@@ -175,8 +175,8 @@ Sekundære
Datakilder
\itemize{
\item{\link{Kaggle datasets: www.kaggle.com, https://www.kaggle.com/}}
\item{\i{Sign in with your email} => genbrug gerne min konto, og undgå tidsplid:
\item{\link{Kaggle datasæts: www.kaggle.com, https://www.kaggle.com/}}
\item{\i{Sign in with your email} => genbrug gerne min konto, og undgå tidssplid:
\itemize{
\item{user: cef@ase.au.dk}
\item{password: test123}
......@@ -187,7 +187,7 @@ Datakilder
Dokumentation
\itemize{
\item{Brug den inbyggede hjælp i [JPYNP]}
\item{Brug den indbyggede hjælp i [JPYNP]}
\img{[FIGS]/Screenshot_jupyter_help.png,}
}
......@@ -207,7 +207,7 @@ Guides etc.
CONTENT GPU Cluster
Der er adgang til en GPU baseret server ifbm kurset. Serveren består af en
Der er adgang til en GPU baseret server i forbindelse med kurset. Serveren består af en
'master' som kan tilgås via
\dl{
......@@ -216,7 +216,7 @@ Der er adgang til en GPU baseret server ifbm kurset. Serveren består af en
og fem 'slave' noder med GPU'er via
\dl{
\dl{
\dd{\link{http://gpucluster.st.lab.au.dk/jhub1}}
\dd{\link{http://gpucluster.st.lab.au.dk/jhub2}}
\dd{\link{http://gpucluster.st.lab.au.dk/jhub3}}
......@@ -230,7 +230,7 @@ som frit kan benyttes.
\p{Adgang kræver at i er på EDUROAM eller VPN/au access.}
\p{Der er pt. ingen load-balancing på de fire noder så se på gpucluster hjemmesiden, hvilke noder der er mindst belastede (via TOP
dataen).}
dataene).}
\sub{Brug}
......@@ -241,7 +241,7 @@ dataen).}
\dd{Password: f21mal09_123}
}
\p{Dvs. brugernavn/login f21malXX hvor XX er jeres ITMAL gruppe og password sammen som brugernavn med med _123
\p{Dvs. brugernavn/login f21malXX hvor XX er jeres ITMAL gruppe og password sammen som brugernavn med _123
tilføjet.}
\sub{Quick Guide}
......@@ -258,12 +258,12 @@ tilføjet.}
\dd{\code{import sys,os sys.path.append(os.path.expanduser('~/itmal'))}}
}
\p{Hvis du kloner [GITMAL] til itmal som overnfor er der nu automatisk sat en path op til libitaml, prøv det!}
\p{Hvis du kloner [GITMAL] til itmal som ovenfor er der nu automatisk sat en path op til libitmal, prøv det!}
\sub{GPU Hukommelse}
\p{Ved brug af Keras+GPU allokeres automatisk al GPU hukommelse. Når vi er flere brugere skal i derfor indsætte
følgende i starten af jeres Keras/Tensorflow Jupyternotebook kode:}
følgende i starten af jeres Keras/Tensorflow Jupyter notebook kode:}
\displaycode{
import tensorflow as tf
......@@ -284,20 +284,20 @@ eller blot
\p{så allokeres kun en brøkdel af GPU hukommelsen! Det ser ud til at growth=True ikke virker, så sæt
per_process_gpu_memory_fraction op hvis i har behov.}
\p{Der kører nu et automatisk startup-script når i logger ind/åbner en nodebook. Se}
\p{Der kører nu et automatisk startup-script når i logger ind/åbner en notebook. Se}
\displaycode{/home/shared/(??)/startup/00_init.py}
\p{der kører StartupSequence_SetPath() og StartupSequence_EnableGPU(), den sidste unktion med følgende default
paramete}
\p{der kører StartupSequence_SetPath() og StartupSequence_EnableGPU(), den sidste funktion med følgende default
parametre}
\displaycode{def StartupSequence_EnableGPU(gpu_mem_fraction=0.05, gpus=None, cpus=None)}
\p{Bemærk at jeres jupyter server, beholder all hukommelse, også når i logger af...kun "stop my server"/"start server"
frigiver!}
%\p{Jeg vil slå alle proceser ned, der har allokeret over ca. 4Gb GPU hukommelse eller har kørt i en uge...det er en
%automatisk process, der kører med ca 5. interval!}
%\p{Jeg vil slå alle processer ned, der har allokeret over ca. 4Gb GPU hukommelse eller har kørt i en uge...det er en
%automatisk process, der kører med ca. 5. interval!}
\sub{Noter}
......@@ -313,7 +313,7 @@ frigiver!}
\p{Brug ikke 'masternode'en til udregninger, kun node 1 til 5!}
\p{Sæt gerne jeres SSH certifickater på, så i slipper for login/password.}
\p{Sæt gerne jeres SSH certifikater på, så i slipper for login/password.}
\p{Password kan kun ændres via SSH og \code{> passwd}}
......@@ -347,15 +347,15 @@ projekt.}
\p{I skal samle arbejdet i rapport-form i en PDF, dog maks. 15 sider. Dertil
kan komme evt. bilag/appendices. Hvis i kan lave en velformateret/letlæst
Jupyter Notebook, kan i også aflevere direkete i dette format i stedet for
Jupyter Notebook, kan i også aflevere direkte i dette format i stedet for
PDF.}
\p{Der skal være en oversigt over gruppemedlemmernes bidrag til rapporten.
\p{Der skal være en oversigt over gruppemedlemmernes bidrag til rapporten.
Dvs. at i skal lave en tabel, der viser, hvilke afsnit (eller sider) de
enkelte medlemmer primært har stået for. Er rapportarbejdet evt. fordelt
ligeligt mellem gruppemedlemmerne, skriv i at alle har deltaget i alle dele.}
\p{Heruover følger O4 rapporten de almindelige formelle journal krav fra
\p{Herudover følger O4 rapporten de almindelige formelle journal krav fra
O1+2+3, på nær disse to punkter}
\itemize{
......@@ -363,7 +363,7 @@ O1+2+3, på nær disse to punkter}
\item{Ingen cut-and-paste af tekst fra opgaveteksten.}
}
\p{som for O4 ikke giver mening (der er ingen overskrifter elleropgavetekst
\p{som for O4 ikke giver mening (der er ingen overskrifter eller opgavetekst
at kopiere fra).}
\p{Rapporten skal opsummere jeres arbejde med jeres problemstilling i et
......@@ -373,36 +373,36 @@ Project} [HOML]).}
\p{Følgende hovedpunkter skal beskrives}
\itemize{
\item{\i{Problemstilling:} hvilket problem førsøger i at løse med ML?}
\item{\i{Problemstilling:} hvilket problem forsøger i at løse med ML?}
\item{\i{Datasæt:} hvilke data arbejder i med, hvilke features, hvor
stammer det fra osv.}
\subitem{Tag udgangspunkt i eller genbrug jeres analyse/tekst fra
afleveringen "Beskrivelse af eget slutprojekt" fra O2 (dvs. i gerne
må selv-plagiere her!).}
\item{\i{Valg af ML algoritme(r):} beskriv f.eks.}
\subitem{hvilken grundliggende ML algoritmeklasse(r) valgte i
(supervised/unsupervised, regression/classifikation)?}
(supervised/unsupervised, regression/klassifikation)?}
\subitem{hvilke kriterier lå til grund for jeres model selection?}
\subitem{hvorfor er jeres valgte algoritme god til netop jeres dataset?}
\subitem{hvad er fordele og ulemper ved den (eller de) valgte
algoritme(r), f.eks. kompleksitet?}
\item{\i{ML processering:} beskrivelse af hvordan i splitter data i
train-test set, preprocessere, træner og tester.}
algoritme(r), f.eks. kompleksitet?}
\item{\i{ML data processering:} beskrivelse af hvordan i splitter data i
train-test set, preprocessere, træner og tester.}
\subitem{evt. brug af Scikit-learn pipelines i processings-steps
(direkte brug af Scikit-learn pipelines: COULD!}
\item{\i{Performance metrics:} beskrivelse af, hvordan i måler
'effektiviteten' af jeres træning og test.}
\item{\i{Under- og overfitting:} hvordan sørger i for, at jeres system ikke
under- eller overfitter på jeres data?}
......@@ -422,7 +422,7 @@ de nævnte kriterier ovenfor kan komme i den rækkefølge i selv vælger.}
til (ca.) 15 sider inklusive figurer og tabeller.}
\p{Det er ikke ment direkte (og formelt) som ’normalsider’ med ”antal anslag,
figure tæller ikke med..” osv. Så hold jer til ca. 15 sider med en fornuftig
figurer tæller ikke med..” osv. Så hold jer til ca. 15 sider med en fornuftig
font.}
\p{De 15 siders grænser er primært indført for ikke at gøre O4 for omfattende i
......@@ -457,53 +457,53 @@ se note nederst, dog anbefales PDF over \code{.ipynb}.}
\itemize{
\item{Forside med information om opgaven (MUST)}
\subitem{kursus og opgaveafleveringsnavn,}
\subitem{dato,}
\subitem{ITMAL gruppe nummer,}
\subitem{liste af studerende, der bidrager (med studienummer).}
\item{Sidetal på alle sider (PDF aflv.: MUST; Jupyter Notebooks aflv.:
DONT or COULD).}
\subitem{Evt. indholdsfortegnelse (COULD).}
\item{Overskrifter på de opgaver, der svares på, ala "Qa - Lineær
regressions parametre og R2 scoren." (MUST)}
\item{Ingen cut-and-paste af tekst fra opgaveteksten (opsummer eller
omformuler istedet opgaven med jeres egen ord istedet) (MUST).}
omformuler i stedet opgaven med jeres egen ord i stedet) (MUST).}
\subitem{Ingen direkte genbrug af overskrifter ala "Qa - The Θ
parameters and the R2 score"(MUST), omformuler overskrifterne og gør
dem til jeres egen overskrifter, sammenfald af tekststykker dog OK.}
\subitem{Genbrug og cut-and-paste af formler og figurer fra
opgaveteksten dog OK! (COULD)}
\subitem{Essentielle plots og formler bør kopieres fra opgaveteksten og
indsættes i jeres journal (SHOULD).}
\subitem{Genbrug af enkelte kode stumper fra opgaveteksten også OK
(COULD).}
\item{Indsættelse af relevant Pyton-kode og output i figurer eller lister,
samt ref. til disse i teksten,}
\subitem{Sørg for at kode er læsbar, specielt ved rå screendumps
(MUST).}
\subitem{Forklarende figurtekster til alle figurer/lister (MUST).}
\item{En 'fornuftig' forklarende journaltekst, så resultater kan genskabes
(MUST).}
\item{Vælg mellem dansk eller engelsk journal sprog (eller norsk eller
svensk hvis du/I er nordisk(e) studerende) (MUST).}
svensk hvis du/I er nordisk(e) studerende) (MUST).}
\subitem{Skriv kun på eet sprog igennem hele journalen, dvs. bland
ikke f.eks. dansk og engelsk (MUST).}
\subitem{Brug af MANGE engelske fagudtryk, begreber og låneord i den
danske tekst: no-problem!}
}
......@@ -516,12 +516,12 @@ genskabes, men det behøver ikke at blive en lang udførlig rapport.}
\p{Foruden de alm. formelle journal-krav ovenfor, skal der svares på alle opgaver
undervejs. Skriv i journal, hvis i ikke kan komme igennem en delopgave, og
beskriv omhyggeligt, hvad i har forsøgt og undersøgt. Ved evt.
beskriv omhyggeligt, hvad i har forsøgt og undersøgt. Ved evt.
gen-aflevering}
\p{Mangler der en væsentlig mængde svar til underopgaver (to eller flere) eller er
journal for mangelfuldt udført (f.eks. ved generelt manglende tekst eller at
en eller flere puntker i de formelle krav er udeladt), sendes journal til
en eller flere punkter i de formelle krav er udeladt), sendes journal til
gen-aflevering.}
\sub{Genafleveringsfrist}
......@@ -590,7 +590,7 @@ Offline lektioner:
\itemize{
\item{Antal studerende per grupper er = 3.}
\item{Grupper med 2 eller 1}
\item{studerende vil blive sammelagt. Skriv til undervisere, hvis du har en gyldig grund til at være SOLO i en gruppe.}
\item{studerende vil blive sammenlagt. Skriv til undervisere, hvis du har en gyldig grund til at være SOLO i en gruppe.}
}
\p{\i{Installation}: de obligatoriske værktøjer til ITMAL inden kursusstart (dvs.
......@@ -609,8 +609,8 @@ vil sætte dig mere ind i sproget.}
\item{Installer Anaconda på din PC:}
\subitem{\link**{www.anaconda.com/products/individual, https://www.anaconda.com/products/individual}}
\subitem{vælg 'Download' (downloader direkte for Windows),}
\subitem{eller vælg Linux eller Mac, 32 eller 64 bit (dit valg),}
\subitem{nværende nyeste Anaconda3 version er \b{2021.05}}
\subitem{eller vælg Linux eller Mac, 32 eller 64 bit (dit valg),}
\subitem{nuværende nyeste Anaconda3 version er \b{2021.05}}
\item{ALTERNATIV 1:}
\subitem{brug vores ASE GPU Cluster som jupyter hub server,}
\subitem{se info in [KURSUSINFOGPU].}
......@@ -654,7 +654,7 @@ rækkefølge:}
\item{[OPTIONAL] python og vectors/matrices math: [BR] \indent{\ipynb{math_linear_algebra.ipynb} [GITHOML],}}
\item{[OPTIONAL] python og grafisk plotting: [BR] \indent{\ipynb{tools_matplotlib.ipynb} [GITHOML],}}
\item{[OPTIONAL] ekstra, Python og dataværktøjet 'Pandas': [BR] \indent{\ipynb{tools_pandas.ipynb} [GITHOML],}}
\item{[OPTIONAL] ekstra, mest for de matematik intereserede: [BR] \indent{\ipynb{math_differential_calculus.ipynb} [GITHOML].}}
\item{[OPTIONAL] ekstra, mest for de matematik interesserede: [BR] \indent{\ipynb{math_differential_calculus.ipynb} [GITHOML].}}
}
\p{Pandas er et meget populært databehandlingsværktøj, men det
......@@ -669,7 +669,7 @@ CONTENT L01
\sub{Formål} %\header{Introduktion}
Denne lektion har til formål at give indledende information om kurset. Dvs.
Denne lektion har til formål at give indledende information om kurset. Dvs.
at vi præsentere de formelle rammer vdr.
\itemize{
......@@ -702,7 +702,7 @@ lektioner..}
\item{Formelle rammer vdr. kurset.}
\item{Eksamensform, godkendelsesfag via:}
\itemize{
\item{et sæt obligatoriske skriftlige gruppe-journaler med afleveringsdeadlines,}
\item{et sæt obligatoriske skriftlige gruppe-journaler med afleveringsdeadlines,}
\item{en poster-session, med aflevering af poster og mundtlig præsentation af poster,}
\item{en mundtlig gennemgang af den sidste journal med alle medlemmer i ITMAL gruppen, samt evaluering af hver gruppemedlems bidrag.}
\subitem{[BR]\b{\style{color: #ff3333, => Endelig godkendelse af kurset sker på en samlet vurdering af de tre punkter ovenfor.}}}
......@@ -729,7 +729,7 @@ lektioner..}
\sub{Litteratur}
\itemize*{
\item{\i{§ Preface}, p. xv [HOML] (eksklusiv fra \i{Using Code Examples}...og resten af intro kapitlet)}
\item{\i{§ Preface}, p. xv [HOML] (eksklusiv fra \i{Using Code Examples}...og resten af intro kapitlet)}
\item{\i{§ 1 The machine Learning Landscape} [HOML]}
\item{\i{§ 2 End-to-End Machine Learning Project} [HOML]}
}
......@@ -794,7 +794,7 @@ vektorer, og vi ser hvordan Mean-Square-Error (MSE) og Mean-Absolute-Error
\p{Herefter studerer vi begrebet supervised klassifikation dybere og bruger
Scikit-learns fit-predict interface til konkret at lave og køre ML-kode. Vi
går i detaljen med den fundamentale train/test-split og fit/predict proces vdr.
går i detaljen med den fundamentale train/test-split og fit/predict proces vdr.
supervised learning, og vi bruger diverse kendte små dataset, som vi også vil
benytte i resten af kurset: MNIST, Iris og Moon.}
......@@ -841,7 +841,7 @@ læring den pågældende algoritme har opnået på de pågældende data.}
\itemize*{
\item{\i{§ 2 End-to-End Machine Learning Project}, \i{Select a Performance Measure}, [HOML]}
\subitem{Genlæs KUN \i{Select a Performance Measure} (pp.39-41)}
\subitem{Genlæs KUN \i{Select a Performance Measure} (pp.39-41)}
\item{\i{§ 3 Classification} [HOML]}
\subitem{Skim eller spring over: \i{The ROC Curve} (pp.97-100) \i{Multilabel Classification} og \i{Multioutput Classification} (pp.106-108).}
}
......@@ -858,7 +858,7 @@ læring den pågældende algoritme har opnået på de pågældende data.}
\item{Almindelig forelæsning}
\item{\b{Opgave} (cost funktionen og lineær algebra): \link**{[HOME]/L02/cost_function.ipynb}}
\item{\b{Opgave} (supervised learning og fit-predict interfacet): \link**{[HOME]/L02/dummy_classifier.ipynb}}
\item{\b{Opgave} (performace metrikker): \link**{[HOME]/L02/performance_metrics.ipynb}}
\item{\b{Opgave} (performance metrikker): \link**{[HOME]/L02/performance_metrics.ipynb}}
}
\sub{Slides}
......@@ -871,14 +871,14 @@ læring den pågældende algoritme har opnået på de pågældende data.}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
CONTENT L03
CONTENT L03
\sub{Formål} %\header{End-to-end ML}
\p{Opsamlingslektion: vi tager et genblik på \i{§ 2 End-to-End Machine Learning
Project}, og samler op på dette brede kapitel.}
\p{Vi går først igang med at gennemgå \i{K-fold Cross-validation} (eller K-fold
\p{Vi går først i gang med at gennemgå \i{K-fold cross-validation} (eller K-fold
CV), for derefter at bruge "\link{The Map, [HOME]/Etc/ml_supervised_map.pdf}"
til at komme igennem alle grundliggende koncepter i \i{§ 2}.}
......@@ -886,7 +886,7 @@ til at komme igennem alle grundliggende koncepter i \i{§ 2}.}
\itemize*{
\item{
\link{\img{[FIGS]/ml_supervised_map.png, Supervised map image.}, [HOME]/Etc/ml_supervised_map.pdf}
[BR]
[BR]
\i{Figur: \link*{Oversigtskortet for Supervised learning (The Map)., [HOME]/Etc/ml_supervised_map.pdf}}
}
}
......@@ -907,11 +907,11 @@ til at komme igennem alle grundliggende koncepter i \i{§ 2}.}
\subitem*{\link{https://scikit-learn.org/stable/modules/generated/sklearn.model_selection.KFold.html}}
}
\sub{Forberedelse inden lektionen}
\sub{Forberedelse inden lektionen}
\itemize{
\item{Læs litteraturen,}
\item{Een eller flere af gruppe medlemmer forbereder et mundtlig resume af \i{§ 2 End-to-End}:}
\item{Een eller flere af gruppe medlemmer forbereder et mundtlig resume af \i{§ 2 End-to-End}:}
\subitem{se detaljer i \link**{[HOME]/L03/supergruppe_diskussion.ipynb}}
}
......@@ -937,18 +937,18 @@ til at komme igennem alle grundliggende koncepter i \i{§ 2}.}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
CONTENT L04
CONTENT L04
\sub{Formål} %\header{Regression og SGD}
\p{Vi analysere \i{supervised regressions} modeller i ML i forhold til den nu
kendte supervised klassifikation metode.}
kendte supervised klassifikation metode.}
\p{Modellen \i{lineær} regression gennemanalyseres og der angives både
analytiske og numeriske løsninger til træning af en lineær model. (Den lineære
regressionsmodel er relativ simple, men yderst vigtig, idet den men danner
grundlag for en hel del advancerede modeller, f.eks. SVN's og NN's.)}
grundlag for en hel del avancerede modeller, f.eks. SVN's og NN's.)}
\p{For den numeriske løsning går vi i dybden med træningsmetoden \i{Stochastic
Gradient Decent metoden} (SGD).}
......@@ -973,7 +973,7 @@ grundlag for neuroner i neurale net.}
\subitem*{indtil og eksklusivt \i{Regularized Linear Models}}
}
\sub{Forberedelse inden lektionen}
\sub{Forberedelse inden lektionen}
\itemize{
\item{Læs litteraturen.}
......@@ -1006,7 +1006,7 @@ til at løse et problem er data analyse, dvs. at få en forståelse af data ved
at se på statistikker såsom middelværdi, median, varians, og plotte data og
histogrammer.}
\p{Der kan også være støjflyldte/korrupte data som skal fjernes eller data
\p{Der kan også være støjfyldte/korrupte data som skal fjernes eller data
værdier, som mangler; det skal håndteres på fornuftig vis, ellers vil man få
forkerte/dårlige modeller efterfølgende.}
......@@ -1026,7 +1026,7 @@ afleveringen.}
\item{Basale termer fra statistik}
\subitem{middelværdi, median, varians, histogram}
\item{The Curse of Dimensionallity}
\subitem{dimensionalitets reduktion vha. PCA modellen}
\subitem{dimensionalitet reduktion vha. PCA modellen}
%\item{Korrelationskoefficienter}
\item{Pipelines}
\subitem{Data cleaning, standardization / normalisation (feature scaling)}
......@@ -1036,15 +1036,15 @@ afleveringen.}
\sub{Litteratur}
\itemize*{
\item{\i{§ 8 Dimensionality Reduction} (pp.213-225) [HOML], kaptitel skimmes kun, men læs grundigt:}
\item{\i{§ 8 Dimensionality Reduction} (pp.213-225) [HOML], kapitel skimmes kun, men læs grundigt:}
\subitem*{\i{Intro} (pp. 213-214)}
\subitem*{\i{The Curse of Dimensionality} (pp. 214-215)}
\subitem*{\i{PCA} (pp. 219-223)}
\item{\i{§ 2 End-to-End ML} (p.38), genlæs \i{Pipelines} tekstboksen }
\subitem*{(herudover der der en hel del genbrug af andet materiale fra \i{§ 2})}
\subitem*{(herudover der en hel del genbrug af andet materiale fra \i{§ 2})}
}
\sub{Forberedelse inden lektionen}
\sub{Forberedelse inden lektionen}
\itemize{
\item{Læs litteraturen.}
......@@ -1074,12 +1074,12 @@ Formål
Litteratur
Kap. 2 s. 47 - 70 (især de emner der forelæses omkring)
Kap. 2 s. 47 - 70 (især de emner der forelæses omkring)
L07: Generalisering
L07: Generalisering
Modelkapacitet, under- og overfitting og generalisering
Formål
......@@ -1098,7 +1098,7 @@ en ML-models såkaldte kapacitet og dens evne til at generalisere.
Generalization Error
Der relateres til træning af NN's i \i{§ 11} i [HOML], som vi læser videre i til
næste lektion...
næste lektion...
Litteratur
......@@ -1113,9 +1113,9 @@ pp 331-338 [HOML] i \i{§ 11}.
[OPTIONAL]: læs videre i \i{§ 11}. Næste gang går vi i dybden med \i{Fast
Optimizers}, og \i{Avoiding Overfitting Through Regularization} (mens vi
springer en del af de meget tekniske sub-kapitler over i \i{§ 11}).
springer en del af de meget tekniske underkapitler over i \i{§ 11}).
[OPTIONAL]: læs \i{GPT-3 er ikke stærk AI} på Version2.dk
[OPTIONAL]: læs \i{GPT-3 er ikke stærk AI} på Version2.dk
Opgaver Forberedelse
......@@ -1125,14 +1125,14 @@ Læs litteraturen
På klassen
Demos + diskussion vdr ML (ingen forberedelse).
Exercise:
Opgave:
capacity_under_overfitting.ipynb Click for more options
Exercise:
Opgave:
generalization_error_v2.ipynb (v2 fixer krydshenvisningsfejl)
Slides
lesson07.pdf
lesson07.pdf
......@@ -1142,7 +1142,7 @@ L06: Neurale Net
Kunstige neurale netværk
Attached Files:
File L06_files.zip Click for more options (749.237 KB)
File L06_files.zip Click for more options (749.237 KB)
Formål
......@@ -1154,7 +1154,7 @@ logistisk regression. Vi taler også lidt om træning af neurale netværk, som
igen er basalt set magen til de tidligere metoder (gradient descent-baseret) vi
har set.
Vi starter med øvelser i Scikit learn framework, da det er simplere og
Vi starter med øvelser i Scikit-learn framework, da det er simplere og
velkendt. I senere uger og til jeres slutprojekt, vil det oftest give mening
at skifte til framework Keras. Emner
......@@ -1198,7 +1198,7 @@ Content
ResNet-34 CNN Using Keras}, pp. 463-481 [HOML]
\i{§ You Only Look Once (YOLO)} og resten af § 14, pp.489-496 [HOML].
Opgaver
Forberedelse inden lektionen
......@@ -1208,7 +1208,7 @@ Content
INGEN opgaver.
Slides
lesson09.pdf