Dietmar last won the day on August 23 2023
Dietmar had the most liked content!
About Dietmar
Profile Information
-
OS
XP Pro x86
Recent Profile Visitors
The recent visitors block is disabled and is not being shown to other users.
Dietmar's Achievements
322
Reputation
-
@casey Hi, disable everything in Bios, that you dont need for boot. All USB, sound, network, internal graphik, use graphik card, etc. Dietmar PS: I did it for myself on this crazy q1900 board. Step by step I also disabled everything in Device Manager of XP SP3. "Now I have also sound on full ACPI Multiprocessor XP SP3 on the Q1900m board. For this I have to disable "Microsoft UAA-Bustreiber für High Definition Audio" in Device Manager and after this to enable "Microsoft UAA-Bustreiber für High Definition Audio" again, crazy."
-
Waoooh, big step forward. Just now no stopping video at youtube any longer with this version 68.14.5b of MyPal for XP Dietmar
-
@Outbreaker This is my last working acpi.sys for XP SP3, bit32. https://ufile.io/aijaqmds I modded such a lot of other acpi.sys, but they are always very special for ONE Bsod. This acpi.sys above will work for nearly all desktop pcs from 1999 to 2025 for XP. But for newer notebooks (starting from 2015) there are a lot of different hurdles, mostly in the underlying DSDT for its graphic card Dietmar
-
@N100dc Here is the link. There is a new Beta-Bios, but I have not tested. This here works for CSM and XP Dietmar https://ufile.io/zk9i1a2j
-
This crazy program learns via Brute Force in an ultrashort time ALL 16 tables, that are possible for an input 0 or 1 into 2 different Neurons, means AND, OR, XOR etc, just all of them Dietmar import numpy as np from itertools import product # To generate all binary combinations and weight combinations # Initialisierung der Schwellenwerte lower_threshold = 0.8 upper_threshold = 1.2 # Trainingsdaten (Inputs für das XOR-Problem und andere) inputs = [[0, 0], [0, 1], [1, 0], [1, 1]] # Alle möglichen Zieltabellen (16 Kombinationen) all_possible_targets = list(product([0, 1], repeat=4)) # Mögliche Werte für die Gewichte (in Schritten von 0.1) weight_values = np.arange(-1.0, 1.1, 0.1) # Trainingsloop für jede mögliche Zieltabelle for table_index, targets in enumerate(all_possible_targets, start=1): print(f"\n=== Wahrheitstabelle {table_index}: Targets = {targets} ===") # Initialisieren der Startwerte bias_list = [0.0, 0.7, 0.9] # Bias nur mit den Werten 0.0, 0.7, 0.9 network_trained = False final_weights = None # Iterate over bias values for bias in bias_list: print(f"Versuch mit Bias {bias}:") # Teste alle Kombinationen der Gewichte for weight_combination in product(weight_values, repeat=2): current_weights = np.array(weight_combination) all_correct = True for input_vector, target in zip(inputs, targets): # Berechnung der gewichteten Summe inkl. Bias weighted_sum = np.dot(input_vector, current_weights) + bias # Aktivierungsfunktion (Schwellenwertfunktion mit zwei Schwellenwerten) output = 1 if lower_threshold < weighted_sum < upper_threshold else 0 # Überprüfe, ob die Ausgabe korrekt ist if target != output: all_correct = False break # Kein Erfolg mit diesen Gewichten; abbrechen # Wenn alle Ausgaben korrekt sind, speichere die Gewichte und Bias if all_correct: network_trained = True final_weights = current_weights break if network_trained: print(f"Das Netzwerk hat Wahrheitstabelle {table_index} erfolgreich gelernt.") print(f"Gewählte Gewichte: {final_weights}") print(f"Gewählter Bias: {bias}") break # Weiter zur nächsten Wahrheitstabelle if not network_trained: print(f"Das Netzwerk hat Wahrheitstabelle {table_index} nicht gelernt.") === Wahrheitstabelle 1: Targets = (0, 0, 0, 0) === Versuch mit Bias 0.0: Das Netzwerk hat Wahrheitstabelle 1 erfolgreich gelernt. Gewählte Gewichte: [-1. -1.] Gewählter Bias: 0.0 === Wahrheitstabelle 2: Targets = (0, 0, 0, 1) === Versuch mit Bias 0.0: Das Netzwerk hat Wahrheitstabelle 2 erfolgreich gelernt. Gewählte Gewichte: [0.1 0.8] Gewählter Bias: 0.0 === Wahrheitstabelle 3: Targets = (0, 0, 1, 0) === Versuch mit Bias 0.0: Das Netzwerk hat Wahrheitstabelle 3 erfolgreich gelernt. Gewählte Gewichte: [ 0.9 -1. ] Gewählter Bias: 0.0 === Wahrheitstabelle 4: Targets = (0, 0, 1, 1) === Versuch mit Bias 0.0: Das Netzwerk hat Wahrheitstabelle 4 erfolgreich gelernt. Gewählte Gewichte: [ 9.00000000e-01 -2.22044605e-16] Gewählter Bias: 0.0 === Wahrheitstabelle 5: Targets = (0, 1, 0, 0) === Versuch mit Bias 0.0: Das Netzwerk hat Wahrheitstabelle 5 erfolgreich gelernt. Gewählte Gewichte: [-1. 0.9] Gewählter Bias: 0.0 === Wahrheitstabelle 6: Targets = (0, 1, 0, 1) === Versuch mit Bias 0.0: Das Netzwerk hat Wahrheitstabelle 6 erfolgreich gelernt. Gewählte Gewichte: [-0.1 1. ] Gewählter Bias: 0.0 === Wahrheitstabelle 7: Targets = (0, 1, 1, 0) === Versuch mit Bias 0.0: Das Netzwerk hat Wahrheitstabelle 7 erfolgreich gelernt. Gewählte Gewichte: [0.9 0.9] Gewählter Bias: 0.0 === Wahrheitstabelle 8: Targets = (0, 1, 1, 1) === Versuch mit Bias 0.0: Versuch mit Bias 0.7: Das Netzwerk hat Wahrheitstabelle 8 erfolgreich gelernt. Gewählte Gewichte: [0.2 0.2] Gewählter Bias: 0.7 === Wahrheitstabelle 9: Targets = (1, 0, 0, 0) === Versuch mit Bias 0.0: Versuch mit Bias 0.7: Versuch mit Bias 0.9: Das Netzwerk hat Wahrheitstabelle 9 erfolgreich gelernt. Gewählte Gewichte: [-1. -1.] Gewählter Bias: 0.9 === Wahrheitstabelle 10: Targets = (1, 0, 0, 1) === Versuch mit Bias 0.0: Versuch mit Bias 0.7: Versuch mit Bias 0.9: Das Netzwerk hat Wahrheitstabelle 10 erfolgreich gelernt. Gewählte Gewichte: [-1. 1.] Gewählter Bias: 0.9 === Wahrheitstabelle 11: Targets = (1, 0, 1, 0) === Versuch mit Bias 0.0: Versuch mit Bias 0.7: Versuch mit Bias 0.9: Das Netzwerk hat Wahrheitstabelle 11 erfolgreich gelernt. Gewählte Gewichte: [-2.22044605e-16 -1.00000000e+00] Gewählter Bias: 0.9 === Wahrheitstabelle 12: Targets = (1, 0, 1, 1) === Versuch mit Bias 0.0: Versuch mit Bias 0.7: Versuch mit Bias 0.9: Das Netzwerk hat Wahrheitstabelle 12 erfolgreich gelernt. Gewählte Gewichte: [ 0.1 -0.1] Gewählter Bias: 0.9 === Wahrheitstabelle 13: Targets = (1, 1, 0, 0) === Versuch mit Bias 0.0: Versuch mit Bias 0.7: Versuch mit Bias 0.9: Das Netzwerk hat Wahrheitstabelle 13 erfolgreich gelernt. Gewählte Gewichte: [-1.00000000e+00 -2.22044605e-16] Gewählter Bias: 0.9 === Wahrheitstabelle 14: Targets = (1, 1, 0, 1) === Versuch mit Bias 0.0: Versuch mit Bias 0.7: Versuch mit Bias 0.9: Das Netzwerk hat Wahrheitstabelle 14 erfolgreich gelernt. Gewählte Gewichte: [-0.3 0.3] Gewählter Bias: 0.9 === Wahrheitstabelle 15: Targets = (1, 1, 1, 0) === Versuch mit Bias 0.0: Versuch mit Bias 0.7: Versuch mit Bias 0.9: Das Netzwerk hat Wahrheitstabelle 15 erfolgreich gelernt. Gewählte Gewichte: [0.1 0.3] Gewählter Bias: 0.9 === Wahrheitstabelle 16: Targets = (1, 1, 1, 1) === Versuch mit Bias 0.0: Versuch mit Bias 0.7: Versuch mit Bias 0.9: Das Netzwerk hat Wahrheitstabelle 16 erfolgreich gelernt. Gewählte Gewichte: [-2.22044605e-16 -2.22044605e-16] Gewählter Bias: 0.9
-
Until now, I have no idea of Python. But with the help of ChatGPT I succeed to make my Ki learn XOR. For this, I use 3 Neurons with 2 thresholds. Together with the Hebb learning (1949(!)), 2 neurons that fire together, wire together. And if they fire randomally to each other, the weights are lowered. I succeed via Hebb with XOR Dietmar PS: You can copy and paste this code into ideone.com choose Python 3 and hit run. import numpy as np # Initialisierung der Schwellenwerte lower_threshold = 0.8 upper_threshold = 1.2 # Lernrate learning_rate = 0.1 # Trainingsdaten (XOR-Problem) inputs = [[0, 0], [0, 1], [1, 0], [1, 1]] targets = [0, 1, 1, 0] # Trainingsloop mit max. 1000 Iterationen max_iterations = 1000 epoch = 0 network_trained = False start_weights = None final_weights = None all_epoch_outputs = [] # Store outputs of all epochs for debugging and transparency while epoch < max_iterations: epoch += 1 all_correct = True # Flag, um zu überprüfen, ob alle Ausgaben korrekt sind current_weights = np.random.rand(2) # Zufällige Startgewichte if epoch == 1: # Die erste Iteration nach Initialisierung start_weights = current_weights # Speichere die Startgewichte epoch_outputs = [] # To store outputs of this epoch for input_vector, target in zip(inputs, targets): # Berechnung der gewichteten Summe weighted_sum = np.dot(input_vector, current_weights) # Aktivierungsfunktion (einfache Schwellenwertfunktion) output = 1 if lower_threshold < weighted_sum < upper_threshold else 0 # Fehlerberechnung error = target - output # Wenn ein Fehler vorliegt, dann weise die Gewichte an if error != 0: all_correct = False current_weights += learning_rate * error * np.array(input_vector) epoch_outputs.append((input_vector, output, target)) # Save each iteration's output all_epoch_outputs.append(epoch_outputs) # Überprüfe, ob alle Ausgaben korrekt sind if all_correct: network_trained = True final_weights = current_weights # Speichere die finalen Gewichte break # Stoppe, wenn alle Ausgaben korrekt sind # Wenn XOR nach 100 Iterationen nicht gelernt wurde, setze neue zufällige Startgewichte if epoch % 100 == 0: # 100 statt 20 print(f"Nicht funktionierende Startgewichte: {start_weights}") start_weights = np.random.rand(2) # Setze neue Startgewichte if network_trained: print(f"Das Netzwerk hat XOR korrekt nach {epoch} Iterationen gelernt.") print(f"Die Working Startgewichte waren: {start_weights}") print(f"Die finalen Gewichte sind: {final_weights}") else: print(f"Das Netzwerk hat XOR nach {epoch} Iterationen nicht korrekt gelernt.") # Testen des Netzwerks nach den Lern-Iterationen print("\nFinal Test Output:") for input_vector, target in zip(inputs, targets): weighted_sum = np.dot(input_vector, final_weights) output = 1 if lower_threshold < weighted_sum < upper_threshold else 0 print(f"Input: {input_vector}, Target: {target}, Output: {output}") # Optionally, print out the outputs of each epoch for transparency print("\nEpoch Outputs:") for epoch_index, epoch_outputs in enumerate(all_epoch_outputs): print(f"Epoch {epoch_index + 1}:") for input_vector, output, target in epoch_outputs: print(f" Input: {input_vector}, Output: {output}, Target: {target}")