hmm

* izbacivanje X i Y. uzorka i baze:
df.drop([X], inplace=True, axis=0)
df.drop([Y], inplace=True, axis=0)

* LR sa trening i test, 10% u test skup a random_state = 10:
X_train, X_test, y_train, y_test = train_test_split(X, Y, test_size=0.1, random_state = 10)

* model LR sa osnovnom hipotezom i to bez regularizacije:
model = LinearRegression(fit_intercept=True)
model.fit(X_train,y_train)

* kNN klasifikator, euklid i 1 sused:
knn = KNeighborsClassifier(n_neighbors=1, metric="euclidean")
knn.fit(X_train_s, y_train)

* predikcija na test skupu i odgovoriti koliko ima pravih pozitiva (gornji levi ugao)
y_pred = knn.predict(X_test)
cm = confusion_matrix(y_test, y_pred)
true_positives=cm[1,1]

acc = accuracy_score(y_val, y_val_pred)
prec = precision_score(y_val, y_val_pred)
rec = recall_score(y_val, y_val_pred)
f1 = f1_score(y_val, y_val_pred)

print(f"\nVAL | accuracy={acc:.2f} precision={prec:.2f} recall={rec:.2f} f1={f1:.2f}")...
(izmeniti...)

*izbacivanje obelezja A iz baze:
df.drop(["A"], inplace=True,axis=1)

*predikcija izlaza i mse.
y_predicted = model.predict(X_test)
mse = mean_square_error(y_test, y_predicted)

* LR sa trening i test, 10% u test skup a random_state = 10, uz originalnu zastupljenost:
X_train, X_test, y_train, y_test = train_test_split(X, Y, test_size=0.1, random_state = 10, stratify=y)

*model lin regresije sa osnovnom hipotezom gde je ridge reguular sa parametrom alpha=5.

model_ridge = Ridge(alpha=5)
model_ridge.fit(X,train,y_train)

*(u nekoj bazi) uzorak predstavlja skup obelezja koja ga opisuju i na kojem obucavamo model

*popuniti nedostajuce vrednosti medijanom donji kvartal obelezja hum:
df["temp"] = df["temp"].fillna(df["temp"].median())
Q1(25%)=0.48

*predikcija na test skupu:
y_pred=classifier.predict(X_test)

end