366 lines
		
	
	
		
			23 KiB
		
	
	
	
		
			TeX
		
	
	
	
	
	
			
		
		
	
	
			366 lines
		
	
	
		
			23 KiB
		
	
	
	
		
			TeX
		
	
	
	
	
	
| %
 | ||
| % !TEX TS-program = xelatex
 | ||
| % !TEX encoding   = UTF-8 Unicode
 | ||
| % !TEX spellcheck = el-GR
 | ||
| %
 | ||
| % Fuzzy Systems Assignment 3
 | ||
| %
 | ||
| % Requires compilation with pdfLaTeX or XeLaTeX
 | ||
| %
 | ||
| % authors:
 | ||
| %   Χρήστος Χουτουρίδης ΑΕΜ 8997
 | ||
| %   cchoutou@ece.auth.gr
 | ||
| %
 | ||
| \documentclass[a4paper, 11pt, mainlang=greek, english]{AUThReport/AUThReport}
 | ||
| 
 | ||
| \CurrentDate{\today}
 | ||
| 
 | ||
| % Greek report document setup suggestions
 | ||
| %---------------------------------
 | ||
| % \WorkGroup{Ομάδα Χ}
 | ||
| 
 | ||
| \AuthorName{Χρήστος Χουτουρίδης}
 | ||
| \AuthorAEM{8997}
 | ||
| \AuthorMail{cchoutou@ece.auth.gr}
 | ||
| 
 | ||
| %\CoAuthorName{Όνομα Επίθετο}
 | ||
| %\CoAuthorAEM{1234}
 | ||
| %\CoAuthorMail{xxx@ece.auth.gr}
 | ||
| 
 | ||
| \DocTitle{Εργασία 3}
 | ||
| \DocSubTitle{Επίλυση προβλήματος παλινδρόμησης με χρήση μοντέλων TSK}
 | ||
| 
 | ||
| \Department{Τμήμα ΗΜΜΥ. Τομέας Ηλεκτρονικής}
 | ||
| \ClassName{Ασαφή Συστήματα (Υπολογιστική Νοημοσύνη)}
 | ||
| 
 | ||
| \InstructorName{Θεοχάρης Ιωάννης}
 | ||
| \InstructorMail{theochar@ece.auth.gr}
 | ||
| 
 | ||
| \CoInstructorName{Χαδουλός Χρήστος}
 | ||
| \CoInstructorMail{christgc@auth.gr}
 | ||
| 
 | ||
| % -------------------------------------------------------
 | ||
| % Packages
 | ||
| % -------------------------------------------------------
 | ||
| \usepackage{float}
 | ||
| \usepackage{minted}
 | ||
| \usepackage{xcolor}
 | ||
| \usepackage{amsmath, amssymb, amsfonts}
 | ||
| \usepackage{diagbox}
 | ||
| \usepackage{subcaption} % για υποεικόνες με ξεχωριστά captions
 | ||
| 
 | ||
| \setminted[cpp]{
 | ||
| 	fontsize=\small,
 | ||
| 	breaklines,
 | ||
| 	autogobble,
 | ||
| 	baselinestretch=1.1,
 | ||
| 	tabsize=2,
 | ||
| 	numbersep=8pt,
 | ||
| 	gobble=0
 | ||
| }
 | ||
| 
 | ||
| \newcommand{\repo}{https://git.hoo2.net/hoo2/FuzzySystems/src/branch/master/Work\%203}
 | ||
| \usepackage{hyphenat}
 | ||
| \hyphenation{Sup-er-con-du-cti-vi-ty}
 | ||
| 
 | ||
| \begin{document}
 | ||
| 
 | ||
| % Request a title page or header
 | ||
| \InsertTitle
 | ||
| %\InsertTitle[img/background.png][0.8\textwidth][2cm]
 | ||
| 
 | ||
| % =====================================================================
 | ||
| \section{Εισαγωγή}
 | ||
| Στην παρούσα εργασία μελετούμε τη μοντελοποίηση παλινδρόμησης με ασαφή νευρωνικά μοντέλα τύπου Takagi–Sugeno–Kang (TSK).
 | ||
| Τα TSK συνδυάζουν ασαφή διαμέριση του χώρου εισόδων (μέσω συναρτήσεων συμμετοχής και κανόνων IF–THEN) με παραμετρικά (συνήθως γραμμικά) συμπεράσματα στην έξοδο.
 | ||
| Η πρακτική σημασία τους έγκειται στην ικανότητα (α) να προσεγγίζουν μη γραμμικές σχέσεις με μικρό αριθμό κανόνων, (β) να εκπαιδεύονται αποδοτικά με \emph{υβριδικές} μεθόδους (οπισθοδιάδοση για τις MF και Ελάχιστα Τετράγωνα για τις παραμέτρους εξόδου), και (γ) να παρέχουν διαγνωστικές απεικονίσεις (MFs, καμπύλες μάθησης, σφάλματα) χρήσιμες για ερμηνεία και ρύθμιση.
 | ||
| 
 | ||
| Θεωρούμε δύο σενάρια:
 | ||
| \begin{enumerate}
 | ||
| 	\item Το \emph{Airfoil Self-Noise} ως εισαγωγικό παράδειγμα με 5 εισόδους, και
 | ||
| 	\item Το \emph{Superconductivity} με υψηλή διαστασιμότητα, όπου εφαρμόζουμε επιλογή χαρακτηριστικών και αναζήτηση πλέγματος (grid search) πάνω σε 5-fold cross validation.
 | ||
| \end{enumerate}
 | ||
| 
 | ||
| \subsection{Παραδοτέα}
 | ||
| Τα παραδοτέα της εργασίας αποτελούνται από:
 | ||
| \begin{itemize}
 | ||
| 	\item Την παρούσα αναφορά.
 | ||
| 	\item Τον κατάλογο \textbf{source}, με τον κώδικα της \textsc{Matlab}.
 | ||
| 	\item Το \href{\repo}{σύνδεσμο με το αποθετήριο} που περιέχει τον κώδικα της \textsc{Matlab} καθώς και αυτόν της αναφοράς.
 | ||
| \end{itemize}
 | ||
| 
 | ||
| 
 | ||
| % =====================================================================
 | ||
| \section{Υλοποίηση}
 | ||
| Υλοποιήθηκε κοινή υποδομή συναρτήσεων για \textbf{διαχωρισμό συνόλων}, \textbf{προ-επεξεργασία}, \textbf{αξιολόγηση} και \textbf{συστηματική απεικόνιση αποτελεσμάτων}, ώστε να εξυπηρετούνται και τα δύο σενάρια.
 | ||
| Η αναπαραγωγή γίνεται εκτελώντας τα scripts \texttt{scenario1.m} και \texttt{scenario2.m}, τα οποία καλούν τις βοηθητικές συναρτήσεις.
 | ||
| 
 | ||
| \subsection{Διαχωρισμός δεδομένων — \texttt{split\_data()}}
 | ||
| Η \texttt{split\_data} δέχεται το πλήρες dataset και διαχωρίζει σε \textbf{train/validation/test} με ποσοστά (εδώ 60/20/20), επιστρέφοντας \emph{ξεχωριστά} τα $X$ και $y$ για κάθε υποσύνολο.
 | ||
| Χρησιμοποιούμε \texttt{seed} για \emph{αναπαραγωγιμότητα} (\texttt{rng(seed,'twister')}), ώστε τυχόν συγκρίσεις μεταξύ μοντέλων να γίνονται επί των ίδιων χωρισμάτων.
 | ||
| 
 | ||
| \subsection{Προεπεξεργασία δεδομένων — \texttt{preprocess\_data()}}
 | ||
| Η προεπεξεργασία είναι απαραίτητη για σταθερή εκπαίδευση.
 | ||
| Υλοποιήθηκαν δύο τρόποι: \textbf{Min–Max} κλιμάκωση σε $[0,1]$ και \textbf{z-score} (μέση τιμή/τυπική απόκλιση).
 | ||
| Σε όλα τα σενάρια \emph{υπολογίζονται τα στατιστικά \textbf{μόνο} στο train} και εφαρμόζονται σε val/test (\emph{no leakage}).
 | ||
| Πειραματιστήκαμε με z-score, ωστόσο καταλήξαμε σε Min–Max (mode=1), που αποδείχθηκε επαρκής και σταθερή επιλογή.
 | ||
| 
 | ||
| \subsection{Αξιολόγηση — \texttt{evaluate()}}
 | ||
| Η \texttt{evaluate} υπολογίζει \textbf{MSE}, \textbf{RMSE}, \textbf{$R^2$}, \textbf{NMSE} και \textbf{NDEI} βάσει των προβλέψεων και της αλήθειας (\texttt{pred, truth}).
 | ||
| Ο δείκτης $R^2 = 1-\frac{\mathrm{SS}_{\mathrm{res}}}{\mathrm{SS}_{\mathrm{tot}}}$ και τα κανονικοποιημένα μεγέθη (NMSE, NDEI$=\sqrt{\text{NMSE}}$) επιτρέπουν συγκρίσεις μεταξύ ρυθμίσεων.
 | ||
| 
 | ||
| \subsection{Εμφάνιση αποτελεσμάτων}
 | ||
| Υλοποιήθηκαν οι \texttt{plot\_results1} (Σενάριο~1) και \texttt{plot\_results2} (Σενάριο~2) που:
 | ||
| \begin{itemize}
 | ||
| 	\item δημιουργούν \textbf{συνοπτικό} σχήμα με \emph{όλες} τις MF ανά είσοδο (πριν/μετά),
 | ||
| 	\item σχεδιάζουν \textbf{καμπύλες μάθησης} (train/val),
 | ||
| 	\item δίνουν \textbf{Predicted vs Actual} και \textbf{σφάλμα πρόβλεψης (residuals)},
 | ||
| 	\item και αποθηκεύουν συστηματικά αρχεία εικόνων στους φακέλους \texttt{figures\_scn1} / \texttt{figures\_scn2}.
 | ||
| \end{itemize}
 | ||
| 
 | ||
| 
 | ||
| 
 | ||
| % =====================================================================
 | ||
| \section{Σενάριο 1 — Εφαρμογή σε απλό Dataset (Airfoil Self-Noise)}
 | ||
| 
 | ||
| Για την παρούσα εργασία εκπαιδεύτηκαν 4 TSK μοντέλα με \textbf{bell-shaped} συναρτήσεις συμμετοχής (gbellmf) μέσω \texttt{genfis} (Grid Partition) και \texttt{anfis} (υβριδική βελτιστοποίηση, 100 epochs).
 | ||
| Τα μοντέλα είναι:
 | ||
| \begin{itemize}
 | ||
| 	\item \textbf{Model 1:} \texttt{TSK0-2MF} — \emph{constant} έξοδος (singleton), 2 MF ανά είσοδο.
 | ||
| 	\item \textbf{Model 2:} \texttt{TSK0-3MF} — \emph{constant}, 3 MF ανά είσοδο.
 | ||
| 	\item \textbf{Model 3:} \texttt{TSK1-2MF} — \emph{linear} έξοδος, 2 MF ανά είσοδο.
 | ||
| 	\item \textbf{Model 4:} \texttt{TSK1-3MF} — \emph{linear}, 3 MF ανά είσοδο.
 | ||
| \end{itemize}
 | ||
| Για κάθε μοντέλο, ως \emph{τελικό} επιλέγεται αυτό με το μικρότερο σφάλμα στο \emph{validation}.
 | ||
| 
 | ||
| \subsection{Συναρτήσεις συμμετοχής}
 | ||
| Οι συναρτήσεις συμμετοχής πριν και μετά την εκπαίδευση φαίνονται παρακάτω.
 | ||
| \InsertFigure{H}{0.7}{fig:scn1_mf1}{../source/figures_scn1/model_1_mfs_all_inputs.png}{Συναρτήσεις συμμετοχής πριν/μετά για το Model~1 (TSK0-2MF).}
 | ||
| \InsertFigure{H}{0.7}{fig:scn1_mf2}{../source/figures_scn1/model_2_mfs_all_inputs.png}{Συναρτήσεις συμμετοχής πριν/μετά για το Model~2 (TSK0-3MF).}
 | ||
| \InsertFigure{H}{0.7}{fig:scn1_mf3}{../source/figures_scn1/model_3_mfs_all_inputs.png}{Συναρτήσεις συμμετοχής πριν/μετά για το Model~3 (TSK1-2MF).}
 | ||
| \InsertFigure{H}{0.7}{fig:scn1_mf4}{../source/figures_scn1/model_4_mfs_all_inputs.png}{Συναρτήσεις συμμετοχής πριν/μετά για το Model~4 (TSK1-3MF).}
 | ||
| 
 | ||
| Από τα παραπάνω παρατηρούμε ότι οι MF αναπροσαρμόζονται ομαλά μετά την εκπαίδευση.
 | ||
| Με 3 MF/είσοδο αυξάνεται η εκφραστικότητα, αλλά ενδέχεται να αυξηθεί το ρίσκο υπερεκπαίδευσης αν δεν υπάρξει επαρκές regularization/early stopping μέσω validation.
 | ||
| 
 | ||
| \subsection{Διαγράμματα μάθησης}
 | ||
| Στα σχήματα \ref{fig:scn1_learning_curves1} και \ref{fig:scn1_learning_curves2} παραθέτουμε τα διαγράμματα μάθησης.
 | ||
| \begin{figure}[H]
 | ||
| 	\centering
 | ||
| 	\begin{subfigure}{0.48\textwidth}
 | ||
| 		\includegraphics[width=\linewidth]{../source/figures_scn1/model_1_learning_curves.png}
 | ||
| 		\caption{Learning curves — Model~1}
 | ||
| 	\end{subfigure}\hfill
 | ||
| 	\begin{subfigure}{0.48\textwidth}
 | ||
| 		\includegraphics[width=\linewidth]{../source/figures_scn1/model_2_learning_curves.png}
 | ||
| 		\caption{Learning curves — Model~2}
 | ||
| 	\end{subfigure}
 | ||
| 	\caption{Καμπύλες μάθησης (train/validation).}
 | ||
| 	\label{fig:scn1_learning_curves1}
 | ||
| \end{figure}
 | ||
| \begin{figure}[H]
 | ||
| 	\centering
 | ||
| 	\begin{subfigure}{0.48\textwidth}
 | ||
| 		\includegraphics[width=\linewidth]{../source/figures_scn1/model_3_learning_curves.png}
 | ||
| 		\caption{Learning curves — Model~3}
 | ||
| 	\end{subfigure}\hfill
 | ||
| 	\begin{subfigure}{0.48\textwidth}
 | ||
| 		\includegraphics[width=\linewidth]{../source/figures_scn1/model_4_learning_curves.png}
 | ||
| 		\caption{Learning curves — Model~4}
 | ||
| 	\end{subfigure}
 | ||
| 	\caption{Καμπύλες μάθησης (train/validation).}
 | ||
| 	\label{fig:scn1_learning_curves2}
 | ||
| \end{figure}
 | ||
| 
 | ||
| Παρατηρούμε μια σταθερή αποκλιμάκωση του train error και επιλογή εποχών μέσω του ελαχίστου validation.
 | ||
| Τα μοντέλα με \emph{linear} έξοδο (ιδίως με 2 MF) συγκλίνουν ταχύτερα.
 | ||
| 
 | ||
| \subsection{Σφάλματα πρόβλεψης (residuals)}
 | ||
| Στα σχήματα \ref{fig:scn1_error1} και \ref{fig:scn1_error2} βλέπουμε τα σφάλματα πρόβλεψης.
 | ||
| \begin{figure}[H]
 | ||
| 	\centering
 | ||
| 	\begin{subfigure}{0.48\textwidth}
 | ||
| 		\includegraphics[width=\linewidth]{../source/figures_scn1/model_1_error.png}
 | ||
| 		\caption{Residuals — Model~1}
 | ||
| 	\end{subfigure}\hfill
 | ||
| 	\begin{subfigure}{0.48\textwidth}
 | ||
| 		\includegraphics[width=\linewidth]{../source/figures_scn1/model_2_error.png}
 | ||
| 		\caption{Residuals — Model~2}
 | ||
| 	\end{subfigure}
 | ||
| 		\caption{Χρονοσειρές σφάλματος πρόβλεψης στα δεδομένα ελέγχου.}
 | ||
| 	\label{fig:scn1_error1}
 | ||
| \end{figure}
 | ||
| 
 | ||
| \begin{figure}[H]
 | ||
| 	\centering
 | ||
| 	\begin{subfigure}{0.48\textwidth}
 | ||
| 		\includegraphics[width=\linewidth]{../source/figures_scn1/model_3_error.png}
 | ||
| 		\caption{Residuals — Model~3}
 | ||
| 	\end{subfigure}\hfill
 | ||
| 	\begin{subfigure}{0.48\textwidth}
 | ||
| 		\includegraphics[width=\linewidth]{../source/figures_scn1/model_4_error.png}
 | ||
| 		\caption{Residuals — Model~4}
 | ||
| 	\end{subfigure}
 | ||
| 	\caption{Χρονοσειρές σφάλματος πρόβλεψης στα δεδομένα ελέγχου.}
 | ||
| 	\label{fig:scn1_error2}
 | ||
| \end{figure}
 | ||
| 
 | ||
| Από τα διαγράμματα παρατηρούμε ότι, για τα καλύτερα μοντέλα, τα σφάλματα πρόβλεψης (residuals) κατανέμονται τυχαία γύρω από το μηδέν, χωρίς να εμφανίζουν συγκεκριμένο μοτίβο.
 | ||
| Αντίθετα, αν τα σφάλματα παρουσίαζαν κάποια εμφανή δομή ή συστηματική τάση, αυτό θα σήμαινε ότι το μοντέλο δεν περιγράφει επαρκώς τη σχέση εισόδου–εξόδου και πιθανόν θα χρειαζόταν μεγαλύτερη πολυπλοκότητα (π.χ. περισσότερες συναρτήσεις συμμετοχής).
 | ||
| 
 | ||
| \subsection{Σύγκριση Actual–Predicted}
 | ||
| Όσων αφορά τη σύγκριση μεταξύ του μοντέλου πρόβλεψης από την εκτέλεση του script έχουμε τα αποτελέσματα του σχήματος \ref{fig:scn1_predicted_vs_actual1} και \ref{fig:scn1_predicted_vs_actual2}:
 | ||
| \begin{figure}[H]
 | ||
| 	\centering
 | ||
| 	\begin{subfigure}{0.48\textwidth}
 | ||
| 		\includegraphics[width=\linewidth]{../source/figures_scn1/model_1_pred_vs_actual.png}
 | ||
| 		\caption{Predicted vs Actual — Model~1}
 | ||
| 	\end{subfigure}\hfill
 | ||
| 	\begin{subfigure}{0.48\textwidth}
 | ||
| 		\includegraphics[width=\linewidth]{../source/figures_scn1/model_2_pred_vs_actual.png}
 | ||
| 		\caption{Predicted vs Actual — Model~2}
 | ||
| 	\end{subfigure}
 | ||
| 	\caption{Συσχέτιση προβλέψεων με τις πραγματικές τιμές (ideal: γραμμή $y=x$).}
 | ||
| 	\label{fig:scn1_predicted_vs_actual1}
 | ||
| \end{figure}
 | ||
| 
 | ||
| \begin{figure}[H]
 | ||
| 	\centering
 | ||
| 	\begin{subfigure}{0.48\textwidth}
 | ||
| 		\includegraphics[width=\linewidth]{../source/figures_scn1/model_3_pred_vs_actual.png}
 | ||
| 		\caption{Predicted vs Actual — Model~3}
 | ||
| 	\end{subfigure}\hfill
 | ||
| 	\begin{subfigure}{0.48\textwidth}
 | ||
| 		\includegraphics[width=\linewidth]{../source/figures_scn1/model_4_pred_vs_actual.png}
 | ||
| 		\caption{Predicted vs Actual — Model~4}
 | ||
| 	\end{subfigure}
 | ||
| 	\caption{Συσχέτιση προβλέψεων με τις πραγματικές τιμές (ideal: γραμμή $y=x$).}
 | ||
| 	\label{fig:scn1_predicted_vs_actual2}
 | ||
| \end{figure}
 | ||
| 
 | ||
| \subsection{Συνολικά αποτελέσματα}
 | ||
| Συνολικά έχουμε:
 | ||
| \begin{table}[H]
 | ||
| 	\centering
 | ||
| 	\begin{tabular}{lcccc}
 | ||
| 		\textbf{Metrics} & \textbf{Model-1} & \textbf{Model-2} & \textbf{Model-3} & \textbf{Model-4} \\
 | ||
| 		\hline
 | ||
| 		MSE   & 16.926  & 17.141  & 12.895  & 30.475 \\
 | ||
| 		RMSE  & 4.1142  & 4.1401  & 3.5910  & 5.5204 \\
 | ||
| 		$R^2$ & 0.66468 & 0.66043 & 0.74454 & 0.39627 \\
 | ||
| 		NMSE  & 0.33532 & 0.33957 & 0.25546 & 0.60373 \\
 | ||
| 		NDEI  & 0.57907 & 0.58272 & 0.50543 & 0.77700 \\
 | ||
| 	\end{tabular}
 | ||
| 	\caption{Δείκτες απόδοσης στο test set για τα 4 μοντέλα του Σεναρίου~1.}
 | ||
| 	\label{tab:scn1_metrics}
 | ||
| \end{table}
 | ||
| 
 | ||
| Παρατηρούμε πως το \textbf{Model~3 (TSK1-2MF)} πετυχαίνει την καλύτερη ισορροπία (χαμηλότερα MSE/RMSE, υψηλότερο $R^2$), επιβεβαιώνοντας ότι \emph{γραμμική έξοδος με μετριοπαθή διαμέριση (2 MF)} είναι επαρκής για το Airfoil.
 | ||
| Η αύξηση σε 3 MF (Model~4) αυξάνει την πολυπλοκότητα και επιδεινώνει τη γενίκευση.
 | ||
| 
 | ||
| 
 | ||
| 
 | ||
| 
 | ||
| % =====================================================================
 | ||
| \section{Σενάριο 2 — Dataset με υψηλή διαστασιμότητα (Superconductivity)}
 | ||
| \subsection{Στόχος και μεθοδολογία}
 | ||
| Σε αυτό το σενάριο ο στόχος μας είναι η αποδοτική μοντελοποίηση με περιορισμό της εκθετικής αύξησης κανόνων.
 | ||
| Ακολουθούμε:
 | ||
| \begin{enumerate}
 | ||
| 	\item \textbf{Split 60/20/20} σε Train/Val/Test και \textbf{Min–Max} κλιμάκωση με \emph{στατιστικά train}.
 | ||
| 	\item \textbf{5-fold CV grid search} πάνω σε δύο \emph{ελεύθερες} παραμέτρους:
 | ||
| 	\begin{itemize}
 | ||
| 		\item πλήθος χαρακτηριστικών $k\_{\text{feat}}\in\{5,8,11,15\}$ (επιλογή με ReliefF),
 | ||
| 		\item ακτίνα επιρροής SC $r_\alpha\in\{0.25,0.5,0.75,1.0\}$ (καθορίζει περίπου \#κανόνων).
 | ||
| 	\end{itemize}
 | ||
| 	\item \textbf{Τελική εκπαίδευση} με τα βέλτιστα $(k_{\text{feat}}^{*}, r_{\alpha}^{*})$ και αξιολόγηση στο test.
 | ||
| \end{enumerate}
 | ||
| 
 | ||
| \subsection{Διαγνωστικά Grid Search}
 | ||
| \begin{figure}[!ht]
 | ||
| 	\centering
 | ||
| 	\includegraphics[width=0.85\textwidth]{../source/figures_scn2/scn2_cv_heatmap.png}
 | ||
| 	\caption{Heatmap μέσου σφάλματος CV ανά $(k\_{\text{feat}}, r_\alpha)$ — με επικάλυψη του \#κανόνων.}
 | ||
| 	\label{fig:scn2_heatmap}
 | ||
| \end{figure}
 | ||
| 
 | ||
| \begin{figure}[!ht]
 | ||
| 	\centering
 | ||
| 	\begin{subfigure}{0.5\textwidth}
 | ||
| 		\includegraphics[width=\linewidth]{../source/figures_scn2/scn2_error_vs_rules.png}
 | ||
| 		\caption{Μέσο CV σφάλμα ως προς τον αριθμό κανόνων.}
 | ||
| 	\end{subfigure}\hfill
 | ||
| 	\begin{subfigure}{0.5\textwidth}
 | ||
| 		\includegraphics[width=\linewidth]{../source/figures_scn2/scn2_error_vs_features.png}
 | ||
| 		\caption{Καλύτερο CV σφάλμα ανά πλήθος χαρακτηριστικών.}
 | ||
| 	\end{subfigure}
 | ||
| 	\caption{Σχέση σφάλματος με πολυπλοκότητα (κανόνες) και μείωση διαστασιμότητας (χαρακτηριστικά).}
 | ||
| 	\label{fig:scn2_tradeoffs}
 | ||
| \end{figure}
 | ||
| 
 | ||
| Παρατηρούμε πως υπάρχει το τυπικό \emph{U-σχήμα} ως προς τους κανόνες: λίγοι κανόνες υποπροσαρμόζουν, υπερβολικά πολλοί οδηγούν σε υπερεκπαίδευση.
 | ||
| Ως προς τα χαρακτηριστικά, μια \emph{μέτρια} τιμή $k\_{\text{feat}}$ δίνει την καλύτερη ισορροπία θορύβου/πληροφορίας.
 | ||
| 
 | ||
| \subsection{Τελικό μοντέλο: καμπύλες, προβλέψεις, residuals}
 | ||
| Για το τελικό μοντέλο μετά την εκπαίδευση και αξιολόγηση έχουμε:
 | ||
| \begin{figure}[H]
 | ||
| 	\centering
 | ||
| 	\includegraphics[width=0.8\textwidth]{../source/figures_scn2/scn2_final_learning_curves.png}
 | ||
| 	\caption{Καμπύλες μάθησης του τελικού μοντέλου (train/validation).}
 | ||
| \end{figure}
 | ||
| 
 | ||
| \begin{figure}[H]
 | ||
| 	\centering
 | ||
| 	\includegraphics[width=0.8\textwidth]{../source/figures_scn2/scn2_final_pred_vs_actual.png}
 | ||
| 	\caption{Σύγκριση \emph{Predicted vs Actual} στο test set.}
 | ||
| 	\label{fig:scn2_pred_vs_actual}
 | ||
| \end{figure}
 | ||
| 
 | ||
| \begin{figure}[H]
 | ||
| 	\centering
 | ||
| 	\includegraphics[width=0.8\textwidth]{../source/figures_scn2/scn2_final_error_series.png}
 | ||
| 	\caption{Residuals (σειρά σφάλματος) στο test set.}
 | ||
| \end{figure}
 | ||
| 
 | ||
| \subsection{Ενδεικτικές συναρτήσεις συμμετοχής (subset)}
 | ||
| \begin{figure}[H]
 | ||
| 	\centering
 | ||
| 	\includegraphics[width=0.95\textwidth]{../source/figures_scn2/scn2_final_mfs_subset.png}
 | ||
| 	\caption{Ενδεικτικές MF για επιλεγμένες εισόδους πριν/μετά την εκπαίδευση.}
 | ||
| \end{figure}
 | ||
| 
 | ||
| \subsection{Δείκτες απόδοσης τελικού μοντέλου (Test set)}
 | ||
| Στην εκτέλεση που παραθέτουμε, το τελικό μοντέλο προέκυψε με \emph{12 κανόνες} και η επίδοση στο test είναι:
 | ||
| \begin{table}[H]
 | ||
| 	\centering
 | ||
| 	\begin{tabular}{lcc}
 | ||
| 		\textbf{Metric} & \textbf{Τιμή} \\
 | ||
| 		\hline
 | ||
| 		MSE   & 208.506 \\
 | ||
| 		RMSE  & 14.4397 \\
 | ||
| 		$R^2$ & 0.820108 \\
 | ||
| 		NMSE  & 0.179892 \\
 | ||
| 		NDEI  & 0.424137 \\
 | ||
| 	\end{tabular}
 | ||
| 	\caption{Απόδοση τελικού μοντέλου στο test (Superconductivity).}
 | ||
| 	\label{tab:scn2_metrics}
 | ||
| \end{table}
 | ||
| 
 | ||
| Παρατηρούμε πως η επίδοση είναι ισχυρή ($R^2\approx0.82$) με σχετικά μικρό αριθμό κανόνων, επιβεβαιώνοντας ότι ο συνδυασμός \emph{ReliefF + SC} ελέγχει αποτελεσματικά την πολυπλοκότητα.
 | ||
| 
 | ||
| \subsection{Συμπεράσματα}
 | ||
| Η επιλογή χαρακτηριστικών και η ρύθμιση της ακτίνας $r_\alpha$ είναι κρίσιμες.
 | ||
| Το grid search με 5-fold CV παρείχε αξιόπιστη εκτίμηση σφάλματος και οδήγησε σε μοντέλο με \emph{καλή γενίκευση} και \emph{περιορισμένο} πλήθος κανόνων.
 | ||
| Αν υιοθετούσαμε \emph{Grid Partition} με 2–3 MF/είσοδο για ίδιο πλήθος χαρακτηριστικών, ο αριθμός κανόνων θα κλιμακωνόταν εκθετικά ($\sim m^{d}$), καθιστώντας το μοντέλο δυσκολότερο στην εκπαίδευση και λιγότερο ελέγξιμο.
 | ||
| Το SC αποφεύγει αυτή την «έκρηξη κανόνων» δημιουργώντας data-driven κανόνες με συμπαγή κάλυψη του χώρου εισόδου.
 | ||
| 
 | ||
| 
 | ||
| 
 | ||
| % =====================================================================
 | ||
| \subsection{Επίλογος}
 | ||
| Αναπτύξαμε μια ολοκληρωμένη διαδικασία παλινδρόμησης με μοντέλα TSK, η οποία καλύπτει όλα τα στάδια — από τον σωστό διαχωρισμό και την προεπεξεργασία των δεδομένων, μέχρι την εκπαίδευση, την αξιολόγηση και την ανάλυση των αποτελεσμάτων.
 | ||
| 
 | ||
| Στο \textbf{Σενάριο~1} φάνηκε ότι ένα μοντέλο με γραμμική έξοδο και μικρό αριθμό συναρτήσεων συμμετοχής μπορεί να αποδώσει ικανοποιητικά.
 | ||
| Στο \textbf{Σενάριο~2} διαπιστώσαμε ότι ο συνδυασμός \emph{επιλογής χαρακτηριστικών, Subtractive Clustering και διασταυρούμενης επικύρωσης (cross validation)} επιτρέπει τη δημιουργία αποδοτικών και εύκολα ερμηνεύσιμων μοντέλων, χωρίς την εκθετική αύξηση της πολυπλοκότητας που εμφανίζεται στις παραδοσιακές μεθόδους grid partition.
 | ||
| \end{document}
 |