Glossary of AI, Machine Learning, and Quantum Computing Terms

Glossary of AI, ML, and Quantum Computing Terms
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

A

AI (Arti­fi­cial Intelligence)
EN: The simu­la­tion of human intel­li­gen­ce pro­ces­ses by machi­nes, par­ti­cu­lar­ly com­pu­ter systems, encom­pas­sing lear­ning, rea­so­ning, and self-cor­rec­tion.
IT: La simu­la­zio­ne dei pro­ces­si di intel­li­gen­za uma­na da par­te del­le mac­chi­ne, in par­ti­co­la­re siste­mi infor­ma­ti­ci, com­pren­den­te appren­di­men­to, ragio­na­men­to e autocorrezione.
ANN (Arti­fi­cial Neu­ral Network)
EN: A com­pu­ta­tio­nal model inspi­red by the struc­tu­re and func­tio­ning of bio­lo­gi­cal neu­ral net­works, used for tasks like pat­tern reco­gni­tion and pre­dic­tion.
IT: Un model­lo com­pu­ta­zio­na­le ispi­ra­to alla strut­tu­ra e al fun­zio­na­men­to del­le reti neu­ra­li bio­lo­gi­che, uti­liz­za­to per com­pi­ti come il rico­no­sci­men­to di pat­tern e le previsioni.
AutoML (Auto­ma­ted Machi­ne Learning)
EN: The auto­ma­tion of machi­ne lear­ning tasks to sim­pli­fy and speed up model deve­lo­p­ment.
IT: L’au­to­ma­zio­ne dei com­pi­ti di machi­ne lear­ning per sem­pli­fi­ca­re e acce­le­ra­re lo svi­lup­po di modelli.
API (Appli­ca­tion Pro­gram­ming Interface)
EN: A set of rules that allow dif­fe­rent soft­ware enti­ties to com­mu­ni­ca­te with each other.
IT: Un insie­me di rego­le che con­sen­te a diver­si soft­ware di comu­ni­ca­re tra loro.
ALU (Ari­th­me­tic Logic Unit)
EN: A com­po­nent of a com­pu­ter pro­ces­sor that per­forms ari­th­me­tic and logi­cal ope­ra­tions.
IT: Un com­po­nen­te del pro­ces­so­re di un com­pu­ter che ese­gue ope­ra­zio­ni arit­me­ti­che e logiche.
ASR (Auto­ma­tic Speech Recognition)
EN: Tech­no­lo­gy that con­verts spo­ken lan­gua­ge into text.
IT: Tec­no­lo­gia che con­ver­te il lin­guag­gio par­la­to in testo.
ACL (Acti­ve Lear­ning Cycle)
EN: A pro­cess to ite­ra­ti­ve­ly label data for trai­ning a model.
IT: Un pro­ces­so per eti­chet­ta­re ite­ra­ti­va­men­te i dati per adde­stra­re un modello.
AMD (Appro­xi­ma­te Mes­sa­ge Passing)
EN: An algo­ri­thm used in spar­se signal recon­struc­tion.
IT: Un algo­rit­mo uti­liz­za­to nel­la rico­stru­zio­ne di segna­li sparsi.
AR (Aug­men­ted Reality)
EN: A tech­no­lo­gy that over­lays digi­tal con­tent onto the phy­si­cal world.
IT: Una tec­no­lo­gia che sovrap­po­ne con­te­nu­ti digi­ta­li al mon­do fisico.

B

BERT (Bidi­rec­tio­nal Enco­der Repre­sen­ta­tions from Transformers)
EN: A tran­sfor­mer-based model for natu­ral lan­gua­ge under­stan­ding.
IT: Un model­lo basa­to sui tra­sfor­ma­to­ri per la com­pren­sio­ne del lin­guag­gio naturale.
Big Data
EN: Lar­ge and com­plex data­se­ts that requi­re advan­ced ana­ly­tics tech­ni­ques to extract insights.
IT: Gran­di e com­ples­si set di dati che richie­do­no tec­ni­che avan­za­te di ana­li­si per estrar­re informazioni.
Bac­k­pro­pa­ga­tion
EN: A trai­ning algo­ri­thm used in arti­fi­cial neu­ral net­works to mini­mi­ze error.
IT: Un algo­rit­mo di adde­stra­men­to uti­liz­za­to nel­le reti neu­ra­li arti­fi­cia­li per mini­miz­za­re l’errore.
Baye­sian Network
EN: A pro­ba­bi­li­stic gra­phi­cal model repre­sen­ting varia­bles and their con­di­tio­nal depen­den­cies.
IT: Un model­lo gra­fi­co pro­ba­bi­li­sti­co che rap­pre­sen­ta varia­bi­li e le loro dipen­den­ze condizionali.
Bloc­k­chain
EN: A decen­tra­li­zed digi­tal led­ger that records tran­sac­tions across many com­pu­ters.
IT: Un regi­stro digi­ta­le decen­tra­liz­za­to che regi­stra tran­sa­zio­ni su mol­ti computer.
BN (Batch Normalization)
EN: A tech­ni­que to impro­ve trai­ning speed and sta­bi­li­ty in neu­ral net­works.
IT: Una tec­ni­ca per miglio­ra­re la velo­ci­tà e la sta­bi­li­tà del­l’ad­de­stra­men­to nel­le reti neurali.
BO (Baye­sian Optimization)
EN: An approach to opti­mi­ze hyper­pa­ra­me­ters using pro­ba­bi­li­stic models.
IT: Un approc­cio per otti­miz­za­re iper­pa­ra­me­tri uti­liz­zan­do model­li probabilistici.
BRNN (Bidi­rec­tio­nal Recur­rent Neu­ral Network)
EN: A neu­ral net­work that pro­ces­ses input sequen­ces in both for­ward and bac­k­ward direc­tions.
IT: Una rete neu­ra­le che ela­bo­ra sequen­ze di input in entram­be le direzioni.
BSAS (Basic Sequen­tial Algo­ri­th­mic Scheme)
EN: A clu­ste­ring algo­ri­thm for sequen­tial data.
IT: Un algo­rit­mo di clu­ste­ring per dati sequenziali.

C

CNN (Con­vo­lu­tio­nal Neu­ral Network)
EN: A type of deep neu­ral net­work used pri­ma­ri­ly for ima­ge and video reco­gni­tion.
IT: Un tipo di rete neu­ra­le pro­fon­da uti­liz­za­ta prin­ci­pal­men­te per il rico­no­sci­men­to di imma­gi­ni e video.
Cloud Com­pu­ting
EN: The deli­ve­ry of com­pu­ting ser­vi­ces over the inter­net.
IT: L’e­ro­ga­zio­ne di ser­vi­zi infor­ma­ti­ci tra­mi­te internet.
Cross-vali­da­tion
EN: A tech­ni­que for asses­sing how a machi­ne lear­ning model gene­ra­li­zes to an inde­pen­dent data­set.
IT: Una tec­ni­ca per valu­ta­re come un model­lo di machi­ne lear­ning si gene­ra­liz­za a un data­set indipendente.
CRF (Con­di­tio­nal Ran­dom Field)
EN: A pro­ba­bi­li­stic model often used for struc­tu­red pre­dic­tion.
IT: Un model­lo pro­ba­bi­li­sti­co spes­so uti­liz­za­to per la pre­vi­sio­ne strutturata.
CPU (Cen­tral Pro­ces­sing Unit)
EN: The pri­ma­ry com­po­nent of a com­pu­ter that per­forms most of the pro­ces­sing.
IT: Il com­po­nen­te prin­ci­pa­le di un com­pu­ter che ese­gue la mag­gior par­te dell’elaborazione.
CD (Con­tra­sti­ve Divergence)
EN: An algo­ri­thm to train ener­gy-based models like RBMs.
IT: Un algo­rit­mo per adde­stra­re model­li basa­ti sul­l’e­ner­gia come gli RBM.
CUDA (Com­pu­te Uni­fied Devi­ce Architecture)
EN: A paral­lel com­pu­ting plat­form and API by NVIDIA.
IT: Una piat­ta­for­ma di cal­co­lo paral­le­lo e API di NVIDIA.
CTC (Con­nec­tio­ni­st Tem­po­ral Classification)
EN: A trai­ning loss func­tion for sequen­ce-to-sequen­ce models.
IT: Una fun­zio­ne di per­di­ta di adde­stra­men­to per model­li sequenza-a-sequenza.

D

DNN (Deep Neu­ral Network)
EN: An arti­fi­cial neu­ral net­work with mul­ti­ple layers, ena­bling com­plex data mode­ling.
IT: Una rete neu­ra­le arti­fi­cia­le con più stra­ti, che con­sen­te una model­la­zio­ne com­ples­sa dei dati.
Data­set
EN: A struc­tu­red col­lec­tion of data used as input for machi­ne lear­ning models.
IT: Una col­le­zio­ne strut­tu­ra­ta di dati uti­liz­za­ta come input per model­li di appren­di­men­to automatico.
Dimen­sio­na­li­ty Reduction
EN: A pro­cess of redu­cing the num­ber of varia­bles under con­si­de­ra­tion.
IT: Un pro­ces­so di ridu­zio­ne del nume­ro di varia­bi­li pre­se in considerazione.
Deci­sion Tree
EN: A model used for clas­si­fi­ca­tion and regres­sion that spli­ts data into bran­ches.
IT: Un model­lo uti­liz­za­to per clas­si­fi­ca­zio­ne e regres­sio­ne che divi­de i dati in rami.
Dro­pout
EN: A regu­la­ri­za­tion tech­ni­que to pre­vent over­fit­ting in neu­ral net­works.
IT: Una tec­ni­ca di rego­la­riz­za­zio­ne per pre­ve­ni­re l’o­ver­fit­ting nel­le reti neurali.
DAG (Direc­ted Acy­clic Graph)
EN: A gra­ph with direc­ted edges and no cycles, used in data pro­ces­sing work­flo­ws.
IT: Un gra­fo con archi diret­ti e sen­za cicli, uti­liz­za­to nei flus­si di lavo­ro di ela­bo­ra­zio­ne dati.
DBN (Deep Belief Network)
EN: A type of deep lear­ning model com­po­sed of stac­ked restric­ted Bol­tz­mann machi­nes.
IT: Un tipo di model­lo di deep lear­ning com­po­sto da mac­chi­ne di Bol­tz­mann ristret­te impilate.
DQN (Deep Q‑Network)
EN: A rein­for­ce­ment lear­ning algo­ri­thm com­bi­ning Q‑learning with deep neu­ral net­works.
IT: Un algo­rit­mo di appren­di­men­to per rin­for­zo che com­bi­na Q‑learning con reti neu­ra­li profonde.
DLT (Distri­bu­ted Led­ger Technology)
EN: A decen­tra­li­zed system for recor­ding tran­sac­tions across mul­ti­ple nodes.
IT: Un siste­ma decen­tra­liz­za­to per regi­stra­re tran­sa­zio­ni su più nodi.
DNA (Dyna­mic Neu­ral Accelerator)
EN: Hard­ware acce­le­ra­tors for impro­ving neu­ral net­work pro­ces­sing.
IT: Acce­le­ra­to­ri hard­ware per miglio­ra­re l’e­la­bo­ra­zio­ne del­le reti neurali.

E

EDA (Explo­ra­to­ry Data Analysis)
EN: Tech­ni­ques to ana­ly­ze data­se­ts, often visual, to sum­ma­ri­ze their main cha­rac­te­ri­stics.
IT: Tec­ni­che per ana­liz­za­re i data­set, spes­so visi­ve, per rias­su­me­re le loro prin­ci­pa­li caratteristiche.
Edge Com­pu­ting
EN: A para­digm that brings com­pu­ta­tion clo­ser to the data sour­ce.
IT: Un para­dig­ma che avvi­ci­na l’e­la­bo­ra­zio­ne alla sor­gen­te dei dati.
Embed­ding
EN: A repre­sen­ta­tion of data in a lower-dimen­sio­nal spa­ce.
IT: Una rap­pre­sen­ta­zio­ne dei dati in uno spa­zio a dimen­sio­ni ridotte.
ELU (Expo­nen­tial Linear Unit)
EN: An acti­va­tion func­tion used in neu­ral net­works.
IT: Una fun­zio­ne di atti­va­zio­ne uti­liz­za­ta nel­le reti neurali.
Ensem­ble Learning
EN: A tech­ni­que that com­bi­nes pre­dic­tions from mul­ti­ple models.
IT: Una tec­ni­ca che com­bi­na le pre­vi­sio­ni di più modelli.
ERM (Empi­ri­cal Risk Minimization)
EN: A prin­ci­ple for trai­ning models by mini­mi­zing error on a trai­ning data­set.
IT: Un prin­ci­pio per adde­stra­re model­li mini­miz­zan­do l’er­ro­re su un data­set di addestramento.
ETL (Extract, Tran­sform, Load)
EN: A pro­cess to extract data from sour­ces, tran­sform it, and load it into sto­ra­ge.
IT: Un pro­ces­so per estrar­re dati da fon­ti, tra­sfor­mar­li e cari­car­li in uno storage.
EWC (Ela­stic Weight Consolidation)
EN: A method to pre­vent cata­stro­phic for­get­ting in neu­ral net­works.
IT: Un meto­do per pre­ve­ni­re la dimen­ti­can­za cata­stro­fi­ca nel­le reti neurali.

F

FPGA (Field-Pro­gram­ma­ble Gate Array)
EN: A hard­ware cir­cuit desi­gned to be con­fi­gu­red after manu­fac­tu­ring.
IT: Un cir­cui­to hard­ware pro­get­ta­to per esse­re con­fi­gu­ra­to dopo la produzione.
FLOPS (Floa­ting Point Ope­ra­tions per Second)
EN: A mea­su­re of com­pu­ter per­for­man­ce, use­ful in fields requi­ring floa­ting-point cal­cu­la­tions.
IT: Una misu­ra del­le pre­sta­zio­ni di un com­pu­ter, uti­le in cam­pi che richie­do­no cal­co­li in vir­go­la mobile.
Fea­tu­re Extraction
EN: The pro­cess of redu­cing the dimen­sio­na­li­ty of data by selec­ting key fea­tu­res.
IT: Il pro­ces­so di ridu­zio­ne del­la dimen­sio­na­li­tà dei dati sele­zio­nan­do carat­te­ri­sti­che chiave.
Fea­tu­re Engineering
EN: Tech­ni­ques to iden­ti­fy which fea­tu­res in a data­set are most influen­tial in pre­dic­ting outcomes.
Fea­tu­re Importance
EN: The pro­cess of using domain kno­w­led­ge to crea­te input varia­bles.
IT: Tec­ni­che per iden­ti­fi­ca­re qua­li carat­te­ri­sti­che in un data­set sono più influen­ti nel pre­ve­de­re i risultati.
Fee­d­for­ward Neu­ral Network
EN: A type of neu­ral net­work whe­re con­nec­tions bet­ween nodes do not form cycles.
IT: Un tipo di rete neu­ra­le in cui le con­nes­sio­ni tra i nodi non for­ma­no cicli.
FNN (Fee­d­for­ward Neu­ral Network)
EN: A neu­ral net­work whe­re con­nec­tions bet­ween nodes do not form a cycle.
IT: Una rete neu­ra­le in cui le con­nes­sio­ni tra i nodi non for­ma­no un ciclo.
FTRL (Fol­low-The-Regu­la­ri­zed-Lea­der)
EN: An onli­ne opti­mi­za­tion algo­ri­thm used in machi­ne lear­ning.
IT: Un algo­rit­mo di otti­miz­za­zio­ne onli­ne uti­liz­za­to nel­l’ap­pren­di­men­to automatico.
FFT (Fast Fou­rier Transform)
EN: An algo­ri­thm to com­pu­te the discre­te Fou­rier tran­sform and its inver­se effi­cien­tly.
IT: Un algo­rit­mo per cal­co­la­re in modo effi­cien­te la tra­sfor­ma­ta di Fou­rier discre­ta e la sua inversa.

G

GAN (Gene­ra­ti­ve Adver­sa­rial Network)
EN: A type of neu­ral net­work used to gene­ra­te syn­the­tic data.
IT: Un tipo di rete neu­ra­le uti­liz­za­ta per gene­ra­re dati sintetici.
GPU (Gra­phics Pro­ces­sing Unit)
EN: Spe­cia­li­zed hard­ware for paral­lel pro­ces­sing, com­mon­ly used in ML and AI.
IT: Hard­ware spe­cia­liz­za­to per l’e­la­bo­ra­zio­ne paral­le­la, uti­liz­za­to comu­ne­men­te in ML e AI.
Gra­dient Descent
EN: An opti­mi­za­tion algo­ri­thm to mini­mi­ze a loss func­tion.
IT: Un algo­rit­mo di otti­miz­za­zio­ne per mini­miz­za­re una fun­zio­ne di perdita.
Gaus­sian Mix­tu­re Model (GMM)
EN: A pro­ba­bi­li­stic model that assu­mes data poin­ts are distri­bu­ted in mul­ti­ple Gaus­sian distri­bu­tions.
IT: Un model­lo pro­ba­bi­li­sti­co che assu­me che i pun­ti dati sia­no distri­bui­ti in più distri­bu­zio­ni Gaussiane.
Gra­ph Neu­ral Net­work (GNN)
EN: A neu­ral net­work desi­gned to pro­cess data repre­sen­ted as gra­phs.
IT: Una rete neu­ra­le pro­get­ta­ta per ela­bo­ra­re dati rap­pre­sen­ta­ti come grafi.
GNN (Gra­ph Neu­ral Network)
EN: A neu­ral net­work desi­gned for pro­ces­sing data repre­sen­ted as gra­phs.
IT: Una rete neu­ra­le pro­get­ta­ta per ela­bo­ra­re dati rap­pre­sen­ta­ti come grafi.
GRU (Gated Recur­rent Unit)
EN: A type of recur­rent neu­ral net­work used for sequen­ce mode­ling.
IT: Un tipo di rete neu­ra­le ricor­ren­te uti­liz­za­ta per la model­la­zio­ne di sequenze.
GMM (Gaus­sian Mix­tu­re Model)
EN: A pro­ba­bi­li­stic model for repre­sen­ting nor­mal­ly distri­bu­ted sub­po­pu­la­tions within an ove­rall popu­la­tion.
IT: Un model­lo pro­ba­bi­li­sti­co per rap­pre­sen­ta­re sot­to­po­po­la­zio­ni distri­bui­te nor­mal­men­te all’in­ter­no di una popo­la­zio­ne complessiva.
GAN (Gene­ra­ti­ve Adver­sa­rial Network)
EN: A type of neu­ral net­work used to gene­ra­te syn­the­tic data.
IT: Un tipo di rete neu­ra­le uti­liz­za­ta per gene­ra­re dati sintetici.

H

HMM (Hid­den Mar­kov Model)
EN: A sta­ti­sti­cal model for repre­sen­ting time-series data.
IT: Un model­lo sta­ti­sti­co per rap­pre­sen­ta­re dati temporali.
Hyper­pa­ra­me­ter
EN: Para­me­ters that are set befo­re the trai­ning pro­cess begins.
IT: Para­me­tri impo­sta­ti pri­ma che ini­zi il pro­ces­so di addestramento.
Heu­ri­stic
EN: A pro­blem-sol­ving approach that uses prac­ti­cal methods or rules of thumb.
IT: Un approc­cio alla riso­lu­zio­ne dei pro­ble­mi che uti­liz­za meto­di pra­ti­ci o rego­le empiriche.
Hie­rar­chi­cal Clustering
EN: A clu­ste­ring method that builds a hie­rar­chy of clu­sters.
IT: Un meto­do di clu­ste­ring che costrui­sce una gerar­chia di cluster.
Hop­field Network
EN: A type of recur­rent neu­ral net­work used for asso­cia­ti­ve memo­ry.
IT: Un tipo di rete neu­ra­le ricor­ren­te uti­liz­za­ta per la memo­ria associativa.
Hop­field Network
EN: A recur­rent neu­ral net­work used for asso­cia­ti­ve memo­ry.
IT: Una rete neu­ra­le ricor­ren­te uti­liz­za­ta per la memo­ria associativa.
HTTP (Hyper­text Trans­fer Protocol)
EN: A pro­to­col for tran­smit­ting hyper­text over the inter­net.
IT: Un pro­to­col­lo per tra­smet­te­re iper­te­sti su internet.
Hyper­pa­ra­me­ter Optimization
EN: The pro­cess of choo­sing the opti­mal set of hyper­pa­ra­me­ters for a machi­ne lear­ning model.
IT: Il pro­ces­so di scel­ta del set otti­ma­le di iper­pa­ra­me­tri per un model­lo di machi­ne learning.

I

IoT (Inter­net of Things)
EN: A net­work of inter­con­nec­ted devi­ces that com­mu­ni­ca­te and share data.
IT: Una rete di dispo­si­ti­vi inter­con­nes­si che comu­ni­ca­no e con­di­vi­do­no dati.
Ini­tia­li­za­tion
EN: The pro­cess of set­ting ini­tial values for a mode­l’s para­me­ters.
IT: Il pro­ces­so di impo­sta­zio­ne dei valo­ri ini­zia­li per i para­me­tri di un modello.
Instan­ce
EN: A sin­gle data point or exam­ple in a data­set.
IT: Un sin­go­lo pun­to dati o esem­pio in un dataset.
Impu­ta­tion
EN: The pro­cess of repla­cing mis­sing data with sub­sti­tu­ted values.
IT: Il pro­ces­so di sosti­tu­zio­ne dei dati man­can­ti con valo­ri sostitutivi.
Induc­ti­ve Learning
EN: A lear­ning method that deri­ves gene­ral rules from spe­ci­fic exam­ples.
IT: Un meto­do di appren­di­men­to che deri­va rego­le gene­ra­li da esem­pi specifici.
IID (Inde­pen­dent and Iden­ti­cal­ly Distributed)
EN: A sta­ti­sti­cal assump­tion about ran­dom varia­bles in a data­set.
IT: Un’i­po­te­si sta­ti­sti­ca sul­le varia­bi­li casua­li in un dataset.
Instan­ce-Based Learning
EN: A type of lear­ning that com­pa­res new instan­ces with instan­ces in trai­ning data.
IT: Un tipo di appren­di­men­to che con­fron­ta nuo­ve istan­ze con quel­le nei dati di addestramento.
Infor­ma­tion Gain
EN: A mea­su­re of the effec­ti­ve­ness of a fea­tu­re in clas­si­fy­ing data.
IT: Una misu­ra del­l’ef­fi­ca­cia di una carat­te­ri­sti­ca nel clas­si­fi­ca­re i dati.

J

Jupy­ter Notebook
EN: An open-sour­ce web appli­ca­tion for crea­ting and sha­ring com­pu­ta­tio­nal docu­men­ts.
IT: Un’ap­pli­ca­zio­ne web open-sour­ce per crea­re e con­di­vi­de­re docu­men­ti computazionali.
JSON (Java­Script Object Notation)
EN: A light­weight data-inter­chan­ge for­mat that is easy to read and wri­te.
IT: Un for­ma­to leg­ge­ro di inter­scam­bio dati, faci­le da leg­ge­re e scrivere.
JVM (Java Vir­tual Machine)
EN: A vir­tual machi­ne that ena­bles com­pu­ters to run Java pro­grams.
IT: Una mac­chi­na vir­tua­le che con­sen­te ai com­pu­ter di ese­gui­re pro­gram­mi Java.
JIT (Just-In-Time Compilation)
EN: A com­pi­la­tion tech­ni­que that trans­la­tes code at run­ti­me for impro­ved per­for­man­ce.
IT: Una tec­ni­ca di com­pi­la­zio­ne che tra­du­ce il codi­ce duran­te l’e­se­cu­zio­ne per miglio­ra­re le prestazioni.
Jac­card Index
EN: A sta­ti­stic used to mea­su­re the simi­la­ri­ty and diver­si­ty of sets.
IT: Una sta­ti­sti­ca uti­liz­za­ta per misu­ra­re la somi­glian­za e la diver­si­tà di insiemi.
Joint Pro­ba­bi­li­ty
EN: The pro­ba­bi­li­ty of two even­ts occur­ring simul­ta­neou­sly.
IT: La pro­ba­bi­li­tà che due even­ti si veri­fi­chi­no contemporaneamente.

K

K‑Means Clu­ste­ring
EN: A clu­ste­ring algo­ri­thm that par­ti­tions data into k distinct groups.
IT: Un algo­rit­mo di clu­ste­ring che sud­di­vi­de i dati in k grup­pi distinti.
KNN (K‑Nearest Neighbors)
EN: A sim­ple algo­ri­thm that assi­gns a class based on the majo­ri­ty class of the nea­re­st nei­gh­bors.
IT: Un sem­pli­ce algo­rit­mo che asse­gna una clas­se basan­do­si sul­la mag­gio­ran­za del­la clas­se dei vici­ni più prossimi.
Kal­man Filter
EN: An algo­ri­thm that uses a series of mea­su­re­men­ts obser­ved over time to esti­ma­te unk­no­wn varia­bles.
IT: Un algo­rit­mo che uti­liz­za una serie di misu­ra­zio­ni osser­va­te nel tem­po per sti­ma­re varia­bi­li sconosciute.
Ker­nel Trick
EN: A method used in SVMs to ena­ble linear sepa­ra­tion in a higher-dimen­sio­nal spa­ce.
IT: Un meto­do uti­liz­za­to negli SVM per con­sen­ti­re la sepa­ra­zio­ne linea­re in uno spa­zio a dimen­sio­ni superiori.
Kno­w­led­ge Graph
EN: A data struc­tu­re that repre­sen­ts enti­ties and their inter­re­la­tions.
IT: Una strut­tu­ra dati che rap­pre­sen­ta enti­tà e le loro interrelazioni.

L

Linear Regres­sion
EN: A sta­ti­sti­cal method to model the rela­tion­ship bet­ween a depen­dent and one or more inde­pen­dent varia­bles.
IT: Un meto­do sta­ti­sti­co per model­la­re la rela­zio­ne tra una varia­bi­le dipen­den­te e una o più varia­bi­li indipendenti.
Logi­stic Regression
EN: A regres­sion ana­ly­sis method for bina­ry clas­si­fi­ca­tion pro­blems.
IT: Un meto­do di ana­li­si di regres­sio­ne per pro­ble­mi di clas­si­fi­ca­zio­ne binaria.
Latent Diri­chlet Allo­ca­tion (LDA)
EN: A gene­ra­ti­ve sta­ti­sti­cal model used for topic mode­ling.
IT: Un model­lo sta­ti­sti­co gene­ra­ti­vo uti­liz­za­to per il topic modeling.
LSTM (Long Short-Term Memory)
EN: A type of RNN capa­ble of lear­ning long-term depen­den­cies.
IT: Un tipo di RNN in gra­do di appren­de­re dipen­den­ze a lun­go termine.
Lear­ning Rate
EN: A hyper­pa­ra­me­ter that con­trols how much to chan­ge the model in respon­se to the esti­ma­ted error.
IT: Un iper­pa­ra­me­tro che con­trol­la quan­to modi­fi­ca­re il model­lo in rispo­sta all’er­ro­re stimato.

M

ML (Machi­ne Learning)
EN: A field of AI focu­sed on buil­ding systems that learn from data.
IT: Un cam­po del­l’in­tel­li­gen­za arti­fi­cia­le foca­liz­za­to sul­la crea­zio­ne di siste­mi che appren­do­no dai dati.
Mon­te Car­lo Simulation
EN: A com­pu­ta­tio­nal tech­ni­que that uses ran­dom sam­pling to esti­ma­te mathe­ma­ti­cal func­tions.
IT: Una tec­ni­ca com­pu­ta­zio­na­le che uti­liz­za cam­pio­na­men­ti casua­li per sti­ma­re fun­zio­ni matematiche.
Mar­kov Chain
EN: A sto­cha­stic model descri­bing a sequen­ce of pos­si­ble even­ts whe­re the pro­ba­bi­li­ty of each event depends only on the sta­te attai­ned in the pre­vious event.
IT: Un model­lo sto­ca­sti­co che descri­ve una sequen­za di even­ti pos­si­bi­li in cui la pro­ba­bi­li­tà di cia­scun even­to dipen­de solo dal­lo sta­to rag­giun­to nel­l’e­ven­to precedente.
EN: A sto­cha­stic model descri­bing a sequen­ce of pos­si­ble even­ts whe­re the pro­ba­bi­li­ty of each event depends only on the sta­te attai­ned in the pre­vious event.
IT: Un model­lo sto­ca­sti­co che descri­ve una sequen­za di even­ti pos­si­bi­li in cui la pro­ba­bi­li­tà di cia­scun even­to dipen­de solo dal­lo sta­to rag­giun­to nel­l’e­ven­to precedente.
Meta-Lear­ningModel Vali­da­tion
EN: “Lear­ning to learn,” whe­re the focus is on desi­gning systems that adapt quic­kly to new tasks.
IT: “Impa­ra­re a impa­ra­re,” ovve­ro pro­get­ta­re siste­mi che si adat­ti­no rapi­da­men­te a nuo­vi compiti.
Mul­ti-task Learning
EN: A machi­ne lear­ning approach whe­re mul­ti­ple lear­ning tasks are sol­ved at the same time.
IT: Un approc­cio di appren­di­men­to auto­ma­ti­co in cui ven­go­no risol­ti con­tem­po­ra­nea­men­te più com­pi­ti di apprendimento.
Mon­te Car­lo Simulation
EN: A com­pu­ta­tio­nal tech­ni­que that uses ran­dom sam­pling to esti­ma­te mathe­ma­ti­cal func­tions.
IT: Una tec­ni­ca com­pu­ta­zio­na­le che uti­liz­za cam­pio­na­men­ti casua­li per sti­ma­re fun­zio­ni matematiche.

N

Neu­ral Network
EN: A set of algo­ri­thms mode­led loo­se­ly after the human brain that is desi­gned to reco­gni­ze pat­terns.
IT: Un insie­me di algo­rit­mi model­la­ti sul­la base del cer­vel­lo uma­no, pro­get­ta­ti per rico­no­sce­re schemi.
Natu­ral Lan­gua­ge Pro­ces­sing (NLP)
EN: A field of AI that gives machi­nes the abi­li­ty to read, under­stand, and deri­ve mea­ning from human lan­gua­ge.
IT: Un cam­po del­l’in­tel­li­gen­za arti­fi­cia­le che con­sen­te alle mac­chi­ne di leg­ge­re, com­pren­de­re e deri­va­re signi­fi­ca­to dal lin­guag­gio umano.
Nai­ve Bayes
EN: A sim­ple pro­ba­bi­li­stic clas­si­fier based on Bayes’ theo­rem with strong inde­pen­den­ce assump­tions.
IT: Un sem­pli­ce clas­si­fi­ca­to­re pro­ba­bi­li­sti­co basa­to sul teo­re­ma di Bayes con for­ti ipo­te­si di indipendenza.
Nor­ma­li­za­tion
EN: The pro­cess of adju­sting values mea­su­red on dif­fe­rent sca­les to a com­mon sca­le.
IT: Il pro­ces­so di rego­la­zio­ne dei valo­ri misu­ra­ti su sca­le diver­se a una sca­la comune.
New­to­n’s Method
EN: An opti­mi­za­tion algo­ri­thm used for fin­ding suc­ces­si­ve­ly bet­ter appro­xi­ma­tions to the roo­ts of a real-valued func­tion.
IT: Un algo­rit­mo di otti­miz­za­zio­ne uti­liz­za­to per tro­va­re appros­si­ma­zio­ni suc­ces­si­ve miglio­ri del­le radi­ci di una fun­zio­ne a valo­ri reali.
Natu­ral Lan­gua­ge Pro­ces­sing (NLP)
EN: A field of AI that gives machi­nes the abi­li­ty to read, under­stand, and deri­ve mea­ning from human lan­gua­ge.
IT: Un cam­po del­l’in­tel­li­gen­za arti­fi­cia­le che con­sen­te alle mac­chi­ne di leg­ge­re, com­pren­de­re e deri­va­re signi­fi­ca­to dal lin­guag­gio umano.

O

Over­fit­ting
EN: A mode­ling error that occurs when a func­tion is too clo­se­ly fit­ted to a limi­ted set of data poin­ts.
IT: Un erro­re di model­la­zio­ne che si veri­fi­ca quan­do una fun­zio­ne è trop­po ade­ren­te a un set limi­ta­to di dati.
Opti­mi­za­tion
EN: The pro­cess of making a system as effec­ti­ve or func­tio­nal as pos­si­ble.
IT: Il pro­ces­so di ren­de­re un siste­ma il più effi­ca­ce o fun­zio­na­le possibile.
Outlier
EN: A data point that dif­fers signi­fi­can­tly from other obser­va­tions.
IT: Un pun­to dati che dif­fe­ri­sce signi­fi­ca­ti­va­men­te dal­le altre osservazioni.
Onli­ne Learning
EN: A machi­ne lear­ning method whe­re the model learns incre­men­tal­ly as new data beco­mes avai­la­ble.
IT: Un meto­do di appren­di­men­to auto­ma­ti­co in cui il model­lo appren­de incre­men­tan­do man mano che diven­ta­no dispo­ni­bi­li nuo­vi dati.
Opti­mi­za­tion
EN: The pro­cess of making a system as effec­ti­ve or func­tio­nal as pos­si­ble.
IT: Il pro­ces­so di ren­de­re un siste­ma il più effi­ca­ce o fun­zio­na­le possibile.
Ordi­nal Data
EN: A type of data that has a natu­ral order but no fixed inter­val bet­ween values.
IT: Un tipo di dati che ha un ordi­ne natu­ra­le ma nes­sun inter­val­lo fis­so tra i valori.

P

Prin­ci­pal Com­po­nent Ana­ly­sis (PCA)
EN: A tech­ni­que used to empha­si­ze varia­tion and bring out strong pat­terns in a data­set.
IT: Una tec­ni­ca uti­liz­za­ta per evi­den­zia­re le varia­zio­ni e iden­ti­fi­ca­re sche­mi for­ti in un dataset.
Pre­ci­sion
EN: A metric used to mea­su­re the accu­ra­cy of posi­ti­ve pre­dic­tions.
IT: Una metri­ca uti­liz­za­ta per misu­ra­re l’ac­cu­ra­tez­za del­le pre­vi­sio­ni positive.
Pre­dic­ti­ve Modeling
EN: A pro­cess used to crea­te a sta­ti­sti­cal model for pre­dic­ting futu­re even­ts.
IT: Un pro­ces­so uti­liz­za­to per crea­re un model­lo sta­ti­sti­co per pre­ve­de­re even­ti futuri.
Prior Pro­ba­bi­li­ty
EN: The pro­ba­bi­li­ty of an event befo­re new evi­den­ce is intro­du­ced.
IT: La pro­ba­bi­li­tà di un even­to pri­ma che ven­ga­no intro­dot­te nuo­ve prove.
Poly­no­mial Regression
EN: A form of regres­sion ana­ly­sis in which the rela­tion­ship bet­ween the inde­pen­dent and depen­dent varia­ble is mode­led as an nth degree poly­no­mial.
IT: Una for­ma di ana­li­si di regres­sio­ne in cui la rela­zio­ne tra la varia­bi­le indi­pen­den­te e quel­la dipen­den­te è model­la­ta come un poli­no­mio di gra­do n.

Q

Quan­tum Annealing
EN: A quan­tum algo­ri­thm used for sol­ving opti­mi­za­tion pro­blems.
IT: Un algo­rit­mo quan­ti­sti­co uti­liz­za­to per risol­ve­re pro­ble­mi di ottimizzazione.
Quan­tum Computing
EN: Com­pu­ting based on quan­tum-mecha­ni­cal phe­no­me­na, such as super­po­si­tion and entan­gle­ment.
IT: Cal­co­lo basa­to su feno­me­ni del­la mec­ca­ni­ca quan­ti­sti­ca, come la sovrap­po­si­zio­ne e l’entanglement.
Quan­tum Cryptography
EN: Cryp­to­gra­phic methods leve­ra­ging quan­tum mecha­nics to ensu­re secu­re com­mu­ni­ca­tion.
IT: Meto­di crit­to­gra­fi­ci che uti­liz­za­no la mec­ca­ni­ca quan­ti­sti­ca per garan­ti­re comu­ni­ca­zio­ni sicure.
Quan­tum Entanglement
EN: A quan­tum sta­te whe­re two par­ti­cles remain inter­con­nec­ted regard­less of the distan­ce sepa­ra­ting them.
IT: Uno sta­to quan­ti­sti­co in cui due par­ti­cel­le riman­go­no inter­con­nes­se indi­pen­den­te­men­te dal­la distan­za che le separa.
Quan­tum Error Correction
EN: Tech­ni­ques to pro­tect quan­tum com­pu­ta­tions from errors cau­sed by deco­he­ren­ce and noi­se.
IT: Tec­ni­che per pro­teg­ge­re i cal­co­li quan­ti­sti­ci dagli erro­ri cau­sa­ti da decoe­ren­za e rumore.
Quan­tum Supremacy
EN: The mile­sto­ne whe­re a quan­tum com­pu­ter per­forms a task beyond the capa­bi­li­ty of clas­si­cal com­pu­ters.
IT: Il tra­guar­do in cui un com­pu­ter quan­ti­sti­co ese­gue un com­pi­to impos­si­bi­le per i com­pu­ter classici.
Qubit
EN: The basic unit of quan­tum infor­ma­tion.
IT: L’u­ni­tà fon­da­men­ta­le di infor­ma­zio­ne quantistica.
Que­ry
EN: A reque­st for infor­ma­tion from a data­ba­se.
IT: Una richie­sta di infor­ma­zio­ni da un database.
Queueing Theo­ry
EN: The mathe­ma­ti­cal stu­dy of wai­ting lines or queues.
IT: Lo stu­dio mate­ma­ti­co del­le code o del­le file d’attesa.
Q‑Learning
EN: A rein­for­ce­ment lear­ning algo­ri­thm that learns the value of an action in a par­ti­cu­lar sta­te.
IT: Un algo­rit­mo di appren­di­men­to per rin­for­zo che appren­de il valo­re di un’a­zio­ne in uno sta­to particolare.

R

RAG (Retrie­val-Aug­men­ted Generation)
EN: A hybrid AI model com­bi­ning retrie­val-based systems and gene­ra­ti­ve models to fetch rele­vant infor­ma­tion and crea­te accu­ra­te, con­text-aware respon­ses.
IT: Model­lo ibri­do di IA che com­bi­na siste­mi di recu­pe­ro del­le infor­ma­zio­ni e model­li gene­ra­ti­vi per otte­ne­re dati rile­van­ti e crea­re rispo­ste accu­ra­te e contestualizzate.
Rein­for­ce­ment Lear­ning (RL)
EN: A type of machi­ne lear­ning whe­re agen­ts learn by inte­rac­ting with their envi­ron­ment.
IT: Un tipo di appren­di­men­to auto­ma­ti­co in cui gli agen­ti appren­do­no inte­ra­gen­do con il loro ambiente.
Regres­sion
EN: A sta­ti­sti­cal method to model the rela­tion­ship bet­ween a depen­dent and one or more inde­pen­dent varia­bles.
IT: Un meto­do sta­ti­sti­co per model­la­re la rela­zio­ne tra una varia­bi­le dipen­den­te e una o più varia­bi­li indipendenti.
Rid­ge Regression
EN: A type of regres­sion that inclu­des a regu­la­ri­za­tion term to pre­vent over­fit­ting.
IT: Un tipo di regres­sio­ne che inclu­de un ter­mi­ne di rego­la­riz­za­zio­ne per pre­ve­ni­re l’overfitting.
Ran­dom Forest
EN: An ensem­ble lear­ning method that uses mul­ti­ple deci­sion trees to impro­ve pre­dic­tion accu­ra­cy.
IT: Un meto­do di appren­di­men­to di insie­me che uti­liz­za più albe­ri deci­sio­na­li per miglio­ra­re l’ac­cu­ra­tez­za del­le previsioni.
RNN (Recur­rent Neu­ral Network)
EN: A type of neu­ral net­work desi­gned for pro­ces­sing sequen­tial data.
IT: Un tipo di rete neu­ra­le pro­get­ta­ta per ela­bo­ra­re dati sequenziali.
ROC Cur­ve (Recei­ver Ope­ra­ting Characteristic)
EN: A gra­phi­cal repre­sen­ta­tion of the dia­gno­stic abi­li­ty of a bina­ry clas­si­fier.
IT: Una rap­pre­sen­ta­zio­ne gra­fi­ca del­la capa­ci­tà dia­gno­sti­ca di un clas­si­fi­ca­to­re binario.
Regu­la­ri­za­tion
EN: Tech­ni­ques used to pre­vent over­fit­ting in machi­ne lear­ning models.
IT: Tec­ni­che uti­liz­za­te per pre­ve­ni­re l’o­ver­fit­ting nei model­li di appren­di­men­to automatico.

S

Sup­port Vec­tor Machi­ne (SVM)
EN: A super­vi­sed lear­ning model used for clas­si­fi­ca­tion and regres­sion ana­ly­sis.
IT: Un model­lo di appren­di­men­to super­vi­sio­na­to uti­liz­za­to per l’a­na­li­si di clas­si­fi­ca­zio­ne e regressione.
Super­vi­sed Learning
EN: A type of machi­ne lear­ning whe­re a model is trai­ned on labe­led data.
IT: Un tipo di appren­di­men­to auto­ma­ti­co in cui un model­lo vie­ne adde­stra­to su dati etichettati.
Sto­cha­stic Gra­dient Descent (SGD)
EN: An opti­mi­za­tion algo­ri­thm used to mini­mi­ze the cost func­tion in machi­ne lear­ning models.
IT: Un algo­rit­mo di otti­miz­za­zio­ne uti­liz­za­to per mini­miz­za­re la fun­zio­ne di costo nei model­li di appren­di­men­to automatico.
Sca­la­bi­li­ty
EN: The abi­li­ty of a system to hand­le increa­sed load or sca­le up.
IT: La capa­ci­tà di un siste­ma di gesti­re un cari­co mag­gio­re o sca­la­re ver­so l’alto.
Self-Super­vi­sed Learning
EN: A lear­ning method that uses the struc­tu­re of data itself to gene­ra­te labels for trai­ning..
IT: Un meto­do di appren­di­men­to che uti­liz­za la strut­tu­ra dei dati stes­si per gene­ra­re eti­chet­te per l’addestramento.
Spar­se Data
EN: Data sets whe­re most of the ele­men­ts are zero or lack infor­ma­tion.
IT: Data­set in cui la mag­gior par­te degli ele­men­ti sono zero o pri­vi di informazioni.
SVM (Sup­port Vec­tor Machine)
EN: A super­vi­sed lear­ning model used for clas­si­fi­ca­tion and regres­sion ana­ly­sis.
IT: Un model­lo di appren­di­men­to super­vi­sio­na­to uti­liz­za­to per l’a­na­li­si di clas­si­fi­ca­zio­ne e regressione.
SGD (Sto­cha­stic Gra­dient Descent)
EN: An opti­mi­za­tion algo­ri­thm used to mini­mi­ze the cost func­tion in machi­ne lear­ning models.
IT: Un algo­rit­mo di otti­miz­za­zio­ne uti­liz­za­to per mini­miz­za­re la fun­zio­ne di costo nei model­li di appren­di­men­to automatico.
Sha­pley Values
EN: A con­cept from game theo­ry used in explai­na­ble AI to attri­bu­te con­tri­bu­tions to fea­tu­res.
IT: Un con­cet­to del­la teo­ria dei gio­chi uti­liz­za­to nel­l’AI spie­ga­bi­le per attri­bui­re con­tri­bu­ti alle caratteristiche.
Soft­max
EN: A func­tion that con­verts logi­ts into pro­ba­bi­li­ties in clas­si­fi­ca­tion tasks.
IT: Una fun­zio­ne che con­ver­te i logi­ts in pro­ba­bi­li­tà nei com­pi­ti di classificazione.

T

Trans­fer Learning
EN: A machi­ne lear­ning method whe­re a model deve­lo­ped for one task is reu­sed as the star­ting point for ano­ther.
IT: Un meto­do di appren­di­men­to auto­ma­ti­co in cui un model­lo svi­lup­pa­to per un com­pi­to vie­ne riu­ti­liz­za­to come pun­to di par­ten­za per un altro.
Ten­sor
EN: A mathe­ma­ti­cal object used in machi­ne lear­ning to gene­ra­li­ze vec­tors and matri­ces.
IT: Un ogget­to mate­ma­ti­co uti­liz­za­to nel­l’ap­pren­di­men­to auto­ma­ti­co per gene­ra­liz­za­re vet­to­ri e matrici.
Toke­ni­za­tion
EN: The pro­cess of split­ting text into smal­ler uni­ts, such as words or phra­ses, for ana­ly­sis.
IT: Il pro­ces­so di sud­di­vi­sio­ne del testo in uni­tà più pic­co­le, come paro­le o fra­si, per l’analisi.
Time Series
EN: A sequen­ce of data poin­ts mea­su­red over time inter­vals.
IT: Una sequen­za di pun­ti dati misu­ra­ti su inter­val­li di tempo.
Turing Test
EN: A test for deter­mi­ning whe­ther a machi­ne exhi­bi­ts intel­li­gent beha­vior indi­stin­gui­sha­ble from a human.
IT: Un test per deter­mi­na­re se una mac­chi­na mostra un com­por­ta­men­to intel­li­gen­te indi­stin­gui­bi­le da quel­lo umano.
T‑SNE (t‑Distributed Sto­cha­stic Nei­gh­bor Embedding)
EN: A tech­ni­que for dimen­sio­na­li­ty reduc­tion that is well-sui­ted for visua­li­za­tion.
IT: Una tec­ni­ca di ridu­zio­ne del­la dimen­sio­na­li­tà par­ti­co­lar­men­te adat­ta per la visualizzazione.
Tran­sfor­mer
EN: A deep lear­ning model archi­tec­tu­re desi­gned for pro­ces­sing sequen­tial data, such as text.
IT: Un’ar­chi­tet­tu­ra di model­lo di deep lear­ning pro­get­ta­ta per ela­bo­ra­re dati sequen­zia­li, come il testo.

U

Unsu­per­vi­sed Learning
EN: A type of machi­ne lear­ning that infers pat­terns from unla­be­led data.
IT: Un tipo di appren­di­men­to auto­ma­ti­co che dedu­ce sche­mi da dati non etichettati.
Under­fit­ting
EN: A mode­ling error whe­re a model fails to cap­tu­re the under­ly­ing trend of the data.
IT: Un erro­re di model­la­zio­ne in cui un model­lo non rie­sce a cat­tu­ra­re la ten­den­za sot­to­stan­te dei dati.
Upsam­pling
EN: A pro­cess to increa­se the reso­lu­tion or amount of data in a data­set.
IT: Un pro­ces­so per aumen­ta­re la riso­lu­zio­ne o la quan­ti­tà di dati in un dataset.
User-Cen­tric Design
EN: An approach to desi­gning systems with a pri­ma­ry focus on user needs and expe­rien­ces.
IT: Un approc­cio alla pro­get­ta­zio­ne di siste­mi con un focus pri­ma­rio sui biso­gni e le espe­rien­ze degli utenti.
Uti­li­ty Function
EN: A mathe­ma­ti­cal func­tion that repre­sen­ts pre­fe­ren­ces over a set of goods or out­co­mes.
IT: Una fun­zio­ne mate­ma­ti­ca che rap­pre­sen­ta le pre­fe­ren­ze su un insie­me di beni o risultati.
U‑Net
EN: A con­vo­lu­tio­nal net­work archi­tec­tu­re for bio­me­di­cal ima­ge seg­men­ta­tion.
IT: Un’ar­chi­tet­tu­ra di rete con­vo­lu­zio­na­le per la seg­men­ta­zio­ne di imma­gi­ni biomediche.
Under­fit­ting
EN: A mode­ling error whe­re a model fails to cap­tu­re the under­ly­ing trend of the data.
IT: Un erro­re di model­la­zio­ne in cui un model­lo non rie­sce a cat­tu­ra­re la ten­den­za sot­to­stan­te dei dati.

V

Vali­da­tion Set
EN: A sub­set of data used to tune model hyper­pa­ra­me­ters.
IT: Un sot­toin­sie­me di dati uti­liz­za­to per rego­la­re gli iper­pa­ra­me­tri del modello.
Varian­ce
EN: A mea­su­re of the disper­sion of data poin­ts in a data­set.
IT: Una misu­ra del­la disper­sio­ne dei pun­ti dati in un dataset.
Vec­tor
EN: A quan­ti­ty with both magni­tu­de and direc­tion, often used in ML to repre­sent data poin­ts.
IT: Una quan­ti­tà con gran­dez­za e dire­zio­ne, spes­so uti­liz­za­ta nel­l’ap­pren­di­men­to auto­ma­ti­co per rap­pre­sen­ta­re pun­ti dati.
Visua­li­za­tion
EN: The pro­cess of repre­sen­ting data gra­phi­cal­ly to iden­ti­fy trends and pat­terns.
IT: Il pro­ces­so di rap­pre­sen­ta­re gra­fi­ca­men­te i dati per iden­ti­fi­ca­re ten­den­ze e schemi.
Vani­shing Gradient
EN: A pro­blem in trai­ning deep neu­ral net­works whe­re gra­dien­ts beco­me too small for effec­ti­ve lear­ning.
IT: Un pro­ble­ma nel­l’ad­de­stra­men­to di reti neu­ra­li pro­fon­de in cui i gra­dien­ti diven­ta­no trop­po pic­co­li per un appren­di­men­to efficace.
Vec­to­ri­za­tion
EN: The pro­cess of con­ver­ting data into a nume­ri­cal for­mat for com­pu­ta­tion.
IT: Il pro­ces­so di con­ver­sio­ne dei dati in un for­ma­to nume­ri­co per il calcolo.
Varia­tio­nal Autoen­co­der (VAE)
EN: A type of gene­ra­ti­ve model that learns effi­cient enco­dings of data.
IT: Un tipo di model­lo gene­ra­ti­vo che appren­de codi­fi­che effi­cien­ti dei dati.

W

Weight
EN: A para­me­ter in a neu­ral net­work that is adju­sted during trai­ning.
IT: Un para­me­tro in una rete neu­ra­le che vie­ne rego­la­to duran­te l’addestramento.
Word Embed­ding
EN: A repre­sen­ta­tion of words in a vec­tor spa­ce, cap­tu­ring their mea­nings.
IT: Una rap­pre­sen­ta­zio­ne del­le paro­le in uno spa­zio vet­to­ria­le, che cat­tu­ra i loro significati.
Work­flow
EN: A sequen­ce of pro­ces­ses throu­gh which data is ana­ly­zed or mani­pu­la­ted.
IT: Una sequen­za di pro­ces­si attra­ver­so i qua­li i dati ven­go­no ana­liz­za­ti o manipolati.
Weighted Ave­ra­ge
EN: An ave­ra­ge whe­re each value has a cor­re­spon­ding weight that influen­ces the result.
IT: Una media in cui ogni valo­re ha un peso cor­ri­spon­den­te che influen­za il risultato.
Weak AI
EN: AI systems desi­gned for spe­ci­fic tasks rather than gene­ral intel­li­gen­ce.
IT: Siste­mi di intel­li­gen­za arti­fi­cia­le pro­get­ta­ti per com­pi­ti spe­ci­fi­ci piut­to­sto che per l’in­tel­li­gen­za generale.

X

XML (Exten­si­ble Mar­kup Language)
EN: A mar­kup lan­gua­ge that defi­nes rules for enco­ding docu­men­ts in a for­mat that is both human-rea­da­ble and machi­ne-rea­da­ble.
IT: Un lin­guag­gio di mar­kup che defi­ni­sce rego­le per codi­fi­ca­re docu­men­ti in un for­ma­to leg­gi­bi­le sia da uma­ni che da macchine.
XGBoo­st
EN: A gra­dient boo­sting fra­mework used for super­vi­sed lear­ning tasks.
IT: Un fra­mework di boo­sting del gra­dien­te uti­liz­za­to per com­pi­ti di appren­di­men­to supervisionato.
XOR (Exclu­si­ve OR)
EN: A logi­cal ope­ra­tion that out­pu­ts true only when inpu­ts dif­fer.
IT: Un’o­pe­ra­zio­ne logi­ca che resti­tui­sce vero solo quan­do gli input sono diversi.
X‑axis
EN: The hori­zon­tal axis in a two-dimen­sio­nal gra­ph.
IT: L’as­se oriz­zon­ta­le in un gra­fi­co bidimensionale.
X‑factor
EN: An essen­tial or uni­que varia­ble that influen­ces an out­co­me.
IT: Una varia­bi­le essen­zia­le o uni­ca che influen­za un risultato.

Y

YAML (YAML Ain’t Mar­kup Language)
EN: A human-rea­da­ble data seria­li­za­tion stan­dard.
IT: Uno stan­dard di seria­liz­za­zio­ne dei dati leg­gi­bi­le da esse­ri umani.
Y‑axis
EN: The ver­ti­cal axis in a two-dimen­sio­nal gra­ph.
IT: L’as­se ver­ti­ca­le in un gra­fi­co bidimensionale.
Yield Cur­ve
EN: A gra­ph that plo­ts inte­re­st rates of bonds with dif­fe­rent matu­ri­ties.
IT: Un gra­fi­co che trac­cia i tas­si di inte­res­se di obbli­ga­zio­ni con diver­se scadenze.
Yes-No Clas­si­fier
EN: A bina­ry clas­si­fier that out­pu­ts yes or no deci­sions.
IT: Un clas­si­fi­ca­to­re bina­rio che resti­tui­sce deci­sio­ni di sì o no.
Y‑intercept
EN: The point whe­re a line cros­ses the y‑axis in a gra­ph.
IT: Il pun­to in cui una linea attra­ver­sa l’as­se y in un grafico.

Z

Z‑score
EN: A sta­ti­sti­cal mea­su­re that descri­bes a value’s rela­tion to the mean of a group of values.
IT: Una misu­ra sta­ti­sti­ca che descri­ve la rela­zio­ne di un valo­re rispet­to alla media di un grup­po di valori.
Zero-Sum Game
EN: A situa­tion whe­re one par­ti­ci­pan­t’s gain is equi­va­lent to ano­the­r’s loss.
IT: Una situa­zio­ne in cui il gua­da­gno di un par­te­ci­pan­te è equi­va­len­te alla per­di­ta di un altro.
Zip­f’s Law
EN: An empi­ri­cal law sta­ting that the fre­quen­cy of a word is inver­se­ly pro­por­tio­nal to its rank in a fre­quen­cy table.
IT: Una leg­ge empi­ri­ca che affer­ma che la fre­quen­za di una paro­la è inver­sa­men­te pro­por­zio­na­le al suo ran­go in una tabel­la di frequenza.
Z‑Transform
EN: A mathe­ma­ti­cal tool used in signal pro­ces­sing and con­trol systems.
IT: Uno stru­men­to mate­ma­ti­co uti­liz­za­to nel­l’e­la­bo­ra­zio­ne del segna­le e nei siste­mi di controllo.
Zero Pad­ding
EN: A tech­ni­que in con­vo­lu­tio­nal neu­ral net­works to pre­ser­ve the spa­tial dimen­sions of input data.
IT: Una tec­ni­ca nel­le reti neu­ra­li con­vo­lu­zio­na­li per pre­ser­va­re le dimen­sio­ni spa­zia­li dei dati di input.