# FR HINTS
## TERM MAPPINGS
These are preferred terminology choices for this language. Use them whenever they sound natural; adapt freely if context requires.

- 'accuracy' -> 'accuracy'
- 'activation function' -> 'fonction d'activation'
- 'artificial intelligence' -> 'intelligence artificielle'
- 'AUC' -> 'AUC'
- 'AUC (Area under the ROC curve)' -> 'AUC (aire sous la courbe ROC)'
- 'backpropagation' -> 'rétropropagation'
- 'batch' -> 'lot'
- 'batch size' -> 'taille du lot'
- 'bias (ethics/fairness)' -> 'biais (éthique/équité) (bias (ethics/fairness))'
- 'bias (math) or bias term' -> 'biais (mathématiques) ou terme de biais'
- 'bias in ethics and fairness' -> 'biais en matière d'éthique et d'équité'
- 'bias term' -> 'biais'
- 'binary classification' -> 'classification binaire'
- 'bucketing' -> 'le binning'
- 'categorical' -> 'catégorielle'
- 'categorical data' -> 'données catégorielles'
- 'class' -> 'classe'
- 'class-imbalanced dataset' -> 'ensemble de données avec déséquilibre des classes'
- 'class-imbalanced datasets' -> 'ensembles de données déséquilibrés en termes de classes'
- 'classification' -> 'classification'
- 'classification model' -> 'modèle de classification'
- 'classification threshold' -> 'seuil de classification'
- 'classifier' -> 'classificateur'
- 'clipping' -> 'écrêtage'
- 'confusion matrix' -> 'matrice de confusion'
- 'continuous feature' -> 'caractéristique continue'
- 'convergence' -> 'convergence'
- 'data set or dataset' -> 'ensemble de données (data set ou dataset)'
- 'DataFrame' -> 'DataFrame'
- 'dataset' -> 'ensemble de données'
- 'deep learning' -> 'deep learning'
- 'deep model' -> 'modèle deep learning'
- 'dense feature' -> 'caractéristique dense'
- 'depth' -> 'profondeur'
- 'discrete feature' -> 'caractéristique discrète'
- 'discrete features' -> 'caractéristiques discrètes'
- 'dynamic' -> 'dynamic'
- 'dynamic model' -> 'modèle dynamique'
- 'early stopping' -> 'arrêt prématuré'
- 'embedding layer' -> 'couche d'embedding'
- 'embedding layers' -> 'couches d'embedding'
- 'epoch' -> 'epoch'
- 'example' -> 'exemple'
- 'false negative (FN)' -> 'Faux négatif (FN)'
- 'false negatives' -> 'faux négatifs'
- 'false positive (FP)' -> 'Faux positif (FP)'
- 'false positive rate' -> 'taux de faux positifs'
- 'false positive rate (FPR)' -> 'taux de faux positifs (TFP) (false positive rate (FPR))'
- 'false positives' -> 'faux positifs'
- 'feature' -> 'fonctionnalité'
- 'feature cross' -> 'croisement de caractéristiques'
- 'feature crosses' -> 'caractéristiques croisées'
- 'feature engineering' -> 'l'ingénierie des caractéristiques.'
- 'feature set' -> 'ensemble de fonctionnalités'
- 'feature vector' -> 'vecteur de caractéristiques'
- 'feedback loop' -> 'boucle de rétroaction'
- 'generalization' -> 'généralisation'
- 'generalization curve' -> 'courbe de généralisation'
- 'gradient descent' -> 'descente de gradient'
- 'ground truth' -> 'vérité terrain'
- 'hidden layer' -> 'couche cachée'
- 'hidden layer(s)' -> 'couches cachées'
- 'hyperparameter' -> 'hyperparamètre'
- 'independently and identically distributed (i.i.d)' -> 'variables indépendantes et identiquement distribuées (i.i.d)'
- 'inference' -> 'inférence'
- 'input layer' -> 'couche d'entrée'
- 'interpretability' -> 'interprétabilité'
- 'iteration' -> 'itération'
- 'L0regularization' -> 'Régularisation L0'
- 'L1loss' -> 'perte L1'
- 'L1regularization' -> 'régularisationL1'
- 'L2loss' -> 'perte L2'
- 'L2regularization' -> 'régularisationL2'
- 'label' -> 'étiquette'
- 'labeled example' -> 'exemple étiqueté'
- 'lambda' -> 'lambda'
- 'layer' -> 'cachée)'
- 'learning rate' -> 'taux d'apprentissage'
- 'linear' -> 'linear'
- 'linear model' -> 'modèle linéaire'
- 'linear models' -> 'modèles linéaires'
- 'linear regression' -> 'régression linéaire'
- 'Log Loss' -> 'perte logistique'
- 'log-odds' -> 'logarithme de cote'
- 'logistic regression' -> 'régression logistique'
- 'loss' -> 'perte'
- 'loss curve' -> 'courbe de perte'
- 'loss function' -> 'fonction de perte'
- 'machine learning' -> 'machine learning'
- 'majority class' -> 'classe majoritaire'
- 'mini-batch' -> 'mini-lot'
- 'minority class' -> 'classe minoritaire'
- 'model' -> 'modèle'
- 'multi-class classification' -> 'classification à classes multiples'
- 'negative class' -> 'classe négative'
- 'negative classes' -> 'classes négatives'
- 'neural network' -> 'neurones feedforward'
- 'neural networks' -> 'réseaux de neurones'
- 'neuron' -> 'neurone'
- 'node (neural network)' -> 'nœud (réseau de neurones)'
- 'nonlinear' -> 'non linéaire'
- 'nonstationarity' -> 'non-stationnarité'
- 'normalization' -> 'normalisation'
- 'numerical data' -> 'données numériques'
- 'offline' -> 'Hors connexion'
- 'offline inference' -> 'inférence hors connexion'
- 'one-hot encoding' -> 'Encodage one-hot'
- 'one-hot vector' -> 'vecteur one-hot'
- 'one-vs.-all' -> 'un contre tous'
- 'online' -> 'online'
- 'online inference' -> 'inférence en ligne'
- 'output layer' -> 'couche de sortie'
- 'output layers' -> 'couches de sortie'
- 'overfitting' -> 'surapprentissage'
- 'pandas' -> 'pandas'
- 'parameter' -> 'paramètre'
- 'positive class' -> 'classe positive'
- 'positive classes' -> 'classes positives'
- 'post-processing' -> 'post-traitement'
- 'precision' -> 'precision'
- 'prediction' -> 'prédiction'
- 'proxy labels' -> 'étiquettes de substitution'
- 'RAG' -> 'RAG'
- 'rater' -> 'évaluateur'
- 'recall' -> 'recall (rappel)'
- 'Rectified Linear Unit (ReLU)' -> 'Unité de rectification linéaire (ReLU)'
- 'regression model' -> 'modèle de régression'
- 'regularization' -> 'régularisation'
- 'regularization rate' -> 'taux de régularisation'
- 'ReLU' -> 'ReLU'
- 'retrieval-augmented generation' -> 'génération augmentée par récupération'
- 'retrieval-augmented generation (RAG)' -> 'génération augmentée par récupération (RAG)'
- 'ROC (receiver operating characteristic) Curve' -> 'Courbe ROC (receiver operating characteristic)'
- 'ROC curve' -> 'courbe ROC'
- 'Root Mean Squared Error (RMSE)' -> 'la racine carrée de l'erreur quadratique moyenne (RMSE, Root Mean Squared Error)'
- 'sigmoid function' -> 'fonction sigmoïde'
- 'softmax' -> 'softmax'
- 'sparse feature' -> 'caractéristique creuse'
- 'sparse representation' -> 'représentation creuse'
- 'sparse vector' -> 'vecteur creux'
- 'squared loss' -> 'perte quadratique'
- 'static' -> 'static'
- 'static inference' -> 'inférence statique'
- 'static model' -> 'modèle statique'
- 'stationarity' -> 'stationnarité'
- 'Stochastic Gradient Descent (SGD)' -> 'Descente de gradient stochastique (SGD, Stochastic Gradient Descent)'
- 'supervised learning' -> 'apprentissage supervisé'
- 'supervised machine learning' -> 'machine learning supervisé'
- 'synthetic feature' -> 'caractéristique synthétique'
- 'synthetic features' -> 'caractéristiques synthétiques'
- 'test loss' -> 'perte de test'
- 'training' -> 'entraînement'
- 'training loss' -> 'perte d'entraînement'
- 'training set' -> 'ensemble d'entraînement'
- 'training-serving skew' -> 'décalage entraînement/mise en service'
- 'true negative (TN)' -> 'vrai négatif (VN)'
- 'true negatives' -> 'vrais négatifs'
- 'true positive (TP)' -> 'vrai positif (VP)'
- 'true positive rate' -> 'taux de vrais positifs'
- 'true positive rate (TPR)' -> 'taux de vrais positifs (TVP)'
- 'true positives' -> 'vrais positifs'
- 'underfitting' -> 'sous-ajustement'
- 'unlabeled example' -> 'exemple sans étiquette'
- 'unsupervised machine learning' -> 'machine learning non supervisé'
- 'validation' -> 'validation'
- 'validation dataset' -> 'ensemble de données de validation'
- 'validation loss' -> 'perte de validation'
- 'validation set' -> 'ensemble de validation'
- 'weight' -> 'weight'
- 'weighted sum' -> 'Somme pondérée'
- 'Z-score normalization' -> 'Normalisation du score Z'
