Biologie

Biologisch-medizinische Methoden:

 

Harn-Reaktions-Status - biochemisch per überschichtung

Im Harn befinden sich ein ganze Reihe von chemischen und biologischen Bestandteilen. Diese sind abhängig vom physiologischen Geschehen des Organismus und seinen biochemischen Reaktionen. Bei der überschichtungsreaktion wird vorsichtig eine spezielle Reagenz über den Harn geschichtet. An der Grenzschicht der beiden Phasen findet dann je nach Bestandteilen eine spezifische Reaktion mit Farmumschlag durch aktive Komplexbildung statt, wodurch man auf bestimmte hoch reaktive Substanzen schleißen kann. Die überschichtungsreaktion ist sehr anspruchsvoll – zeigt aber auch das Vorhandensein der reaktionsfähigen Fraktionen der Harnbestandteile und damit gehört es indirekt zu den chemisch-physikalischen Tests. Daher sind elektromagnetische Störungen im Rahmen der Möglichkeiten und können ggf. einen schnellen Hinweis auf Störungen der energetischen Zustände aufzeigen.

 

Harn-pH und Harn-Dichte und Harn-Leitwert nach Vincent

Diese drei Werte sind physikalisch-chemische Reaktionen des Harns und stehen nach Vincent in einem direkten physiologischen Zusammenhang. Dieser Zusammenhang ist durch Kennlinien in seiner physiologischen Breite bekannt und daher sind Abweichungen einzelner bzw. auch Veränderungen im Gesamtzusammenspiel in mehreren Dimension ablesbar und direkt auf die einwirkenden Vorgänge hin interpretierbar. Der Test ist sehr sensibel und bedarf eines hochexakten Laborarbeitens. Durch die Veränderungen im sog. ‚Spucke-Test’ ist bekannt, dass elektromagnetische Einflüsse die Körperreaktion basierend auf den Wasserphasen beeinträchtigen können. Daher sind besonders die Körperflüssigkeiten zur Darstellung solcher Veränderungen geeignet. Mit diesem Trias-Test ist somit eine Untersuchungsmöglichkeit der biologisch-physikalisch-chemischen Reaktionen im Harn vorhanden und nutzbar.

 

Harn-Sedimentierungs-Mikroskopie

Durch vielfältige Vorgänge im Organismus kommt es zur Ausscheidung von festen Bestandteilen im Harn. Dies sind Hautbestandteile, Bakterien, Toxine aber auch Salze. Letztere können je nach Beschaffenheit mehr oder weniger große und komplexe Kristallformen annehmen. Die Kristalle werden in der dekantierten frischen Sedimentierung im Mikroskop analysiert. Aufgrund dieser Verklumpung sind Rückschlüsse, analog zur Dunkelfeldmikroskopie des Blutes (sog. ‚Geldrollenbildung’) auf die Beschaffenheit der Harnlöslichkeit und der Komplexbildungsfähigkeit zu ersehen. Elektromagnetische Einflüsse können auch hier das empfindliche physikalisch-chemische Gleichgewicht stören.

 

Harn-Trocknungs-Kristallisation – Digital-Mikroskopie

Beim Lufttrocknen von frischem Harn kommt es zur Kristallbildung wie schon weiter oben prinzipiell erklärt. Diese Trocknungskristalle werden direkt beeinflusst von der Zusammensetzung des Harns einerseits und aber auch von z.B. physikalischen Einflüssen andererseits. Gerade dieser Einfluss ist für die Clusterung und Komplex-/Kristall-Bildung ausschlaggebend. Daher eignet sich dieser Kristallisationsprozess hervorragend zur Darstellung elektromagnetischer Einflüsse auf diese Körperflüssigkeit. Die Trocknungskristalle werden dann unter dem Digital-Mikroskop betrachtet und digital dokumentiert um dann vergleichend ausgewertet zu werden. Dies ist interessant um Störungen und Entstörungen mit deren Auswirkungen auf den Organismus bildgebend darstellen zu können.

 

Speichel-Trocknungs-Kristallisation –‚Spucktest’ - nach Kröplin

Der sog. ‚Spucke-Test’ ist analog zum Harn-Trocknungs-Test zu sehen. Nur wird hier Speichel benutzt. Gerade im Zusammenhang mit einem Handy im Kopfbereich wird der Speichel und seine Produktion direkt beeinflusst, während Harn dies erst über nachgeschaltete Stoffwechselgeschehen aufzeigt. Dazwischen ist die ThermoScan-Methode angesiedelt. Der Spucke-Test kann daher ein schnelles Erkennen von elektromagnetischen Einflüssen auf den Organismus aufzeigen. Der an der Luft getrocknete Speichel wird dann mit dem Objektträger ebenfalls unter dem Digital-Mikroskop betrachtet und digital gespeichert, um in der Folge vergleichende Auswertungen machen zu können.

 

Blutsenkungsgeschwindigkeit (BSG) nach Westergreen

Die Blutsenkungsgeschwindigkeit ist ein fein reagierender Test der Phasenkonsistenz des frischen Blutes. Im Blut sind feste Bestandteile im Serum in Lösung, gleichfalls sind im Normalfall die Blutkörper homogen suspensiert. Wenn dieses Blut nun durch Citrate ungerinnbar gemacht wurde, so kommt es im Laufe der Zeit zu einer Entmischung dieser Suspension – d.h. die Blutkörperchen fallen aus und es kommt zur Trennung zwischen Blutkörpermasse und Serum. Die Blutkörperchen sinken langsam in einem bestimmten Zählrohr nach unten. Die Geschwindigkeit dieser Trennung und Senkung pro Zeiteinheit ergibt dann die BSG als Wert. Da unter fiebrigen Reaktionen die BSG erhöht ist, und dies auch bei elektromagnetischen Einflüssen sichtbar wurde, kann man die Beeinflussung des chemisch-physikalischen Gleichgewichts – hier besonders der Lösungs- und Suspensions-Fähigkeit des Serums – sehr fein beobachten. Dies ist besonders interessant im Zusammenhang mit der ThermoScan-Untersuchung, da hier dann eindeutig thermischen von nicht-thermischen (fiebrigen) Reaktionen darstellbar und zu unterscheiden sind.

 

Herzratenvariabilität (HRV) Modell

Die HRV ist eine besondere Methode des EKGs. Hier wird nicht nur der regelmäßige Herzschlag erfasst, sondern in hoher Auflösung im msec-Bereich auch der Abstand der Herzschläge zu einander (beat-to-beat) erfasst und berechnet. Es ergibt sich hieraus eine Streuung der einzelnen Varianzen im Herzrhythmus. Da das Herz direkt mit dem vegetativen Nervensystem gekoppelt ist, sind hier Interaktionen zwischen beiden Systemen gegeben. Das autonome, also willkürlich nicht beeinflussbare vegetative Nervensystem steuert alle inneren Organe und Vitalfunktionen des Organismus. Es ist von vielen Faktoren beeinflussbar – auch von toxischem und elektromagnetischen, wie auch neuralen Stress. Daher eignet sich die HRV besonders als Global-Indikator des ‚Wohlfühlens’ des Organismus, da es die ökonomie des Stoffwechselgeschehens direkt abbildet. Eine hohe Streuung der Varianz spricht für eine gute Regelungsfähigkeit und damit für hoch ökonomischen Steuerungsvorgänge, während eine geringe Streuung der Varianz eindeutig Stress-Faktoren belegt. Im Zusammenhang z.B. mit der ThermoScan lassen sich so nicht-thermische Einflüsse fein darstellen und dokumentieren. Bei dieser HRV-Variante, die das KI nutzt, wird eine besondere EDV-Auswertung der Zahlenwerte angewandt, die auch vom AKH-Wien so genutzt werden: SD1->HF->SD2 werden in dieser Abfolge mit einander korreliert und dann statistisch dargestellt.

 

Elektromyogramm (EMG)

Die Muskulatur wird an sich willkürlich gesteuert – jedoch die Stoffwechseleigenschaften autonom. D.h. entsprechend der willkürlichen Anforderung steuern vegetative Prozess autonom die Ver- und Entsorgung des Muskelgewebes. Die Kontraktionsfähigkeit und der Grundtonus des Muskels in ein Zeichen seiner Leistungsfähigkeit. Das EMG ist ein elektrisches Verfahren, was das ‚Nerven-Feuer’ der neuro-motorischen Platten im Zusammenhang mit dem Zellmembranpotential darstellbar macht Hier werden die spezifischen gewebeeigenen Potenziale in mV abgetastet und dargestellt. Durch Stress kann es sehr schnell zu Tonusveränderungen (stressbedingte oder reflektorische Verspannungen) kommen, die sich dann in direkten Zahlen abbilden. Das EMG ist also in der Lage muskuläre Verspannungen und Tonusänderungen erfassbar zu machen. Hier ist der Zusammenhang mit dem Kinesiologie-Reflex interessant, da dieser auch Veränderungen gerade unter neuralen und elektromagnetischen Stress-Situationen aufzeigt. Hier sei nur noch das Phänomen der motorischen Unruhe unter Elektrosmog genannt.

 

Drehmoment unterstützter Kinesiologie-Muskel-Reflex nach Knop

Schon im ersten Auswertungsgang der GFG-Feldstudie (Teil 1) zeigte sich die hervorragende Nutzbarkeit des kinesiologischen Muskeltests nach McKenzie in der Beurteilung elektromagnetisch störender und entstörender Einflüsse. Hier wird der Delta-Muskel, der zur Stabilisierung des ausgestreckten Arms notwendig ist, manuell auf seinen Tonus überprüft – d.h. wie lange und wie stark kann der Arm unter Einfluss vom Probanden senkrecht hochgehalten werden. Dies sagt etwas direkt über den Tonus aber auch über die neurale Stabilisation- d.h. die Regelungsfähigkeit des neuro-muskulären Zusammenspiels - aus. Da dieser Test aber bisher nur über manuelle Druckunterschiede beurteilt wurde, war er nicht quantifizierbar. Die neue Form, die das KI entwickelte, macht nun den Effekt in Zahlen darstellbar indem der Muskel-Test mit einem Drehmoment-System und einem flexiblen Zugwiderstands-Potentiometer gekoppelt wurde. Die nun mögliche Zahlendokumentation in mA ermöglicht eine schnelle Vergleichbarkeit von Einflüssen und deren positiver Lösung.

 

GUA-Grundumsatz-Abweichung (Ruhestoffwechsel) nach Read

ähnlich wie bei der BSG zeigen auch Blutdruck und Puls Zusammenhänge auf, die in diesem Fall auf die Stoffwechselvorgänge schließen lassen. Aus der Blutdruckamplitude in Korrelation mit dem Puls kann das Stoffwechselgeschehen näherungsweise beschrieben werden. Das Zusammenspiel der beiden Faktoren sagen über die Pulshöhe und die Dynamik des Blutdrucks sehr viel über die Transporteigenschaften und die Transportgeschwindigkeiten im Blutstrom aus. Diese beiden Faktoren zeigen wie intensiv die Infrastruktur bedient werden muss. Da bei Fieber bekannter Weise der Stoffwechsel ‚hochgefahren’ werden muss, ist eine Erhöhung oder Erniedrigung (=Abweichung) des Stoffwechselgrundumsatzes diagnostisch interessant. Im Bereich nicht-thermischer Reaktion ist eine GUA dann von Interesse, wenn weder thermische Effekte von Außen, noch echte Fieber-Vorgänge bzw. infektiöse Zustände parallel darstellbar sind. Dann sind diese Abweichungen als Stoffwechsel-Stress zu beurteilen – der Stoffwechsel ‚schießt über’....

 

Segment-Thermoregulation

Die Haut als reflektorischen System reagiert auf jegliche Reize in vielfältiger Form. Der Tugor genauso wie Unterhautdurchblutung wie auch der Muskeltonus werden autonom geregelt. Einflüsse auf die Haut werden über Nervenendigungen endogen verarbeitet und dann wieder nach außen über die Segmente projiziert. Hier greifen Reflexsystem verschiedenster Art. Bei der Thermoregulation wird nun über punktuelle Oberflächentemperaturabtastung die segmentale Regulationsfähigkeit der Haut auf einen Einfluss, einen exogenen Reiz hin getestet. D.h. die Regelungs- und Anpassungsfähigkeit über die neurale Steuerung wird dargestellt. Hier wird dann ersichtlich, inwieweit der Organismus in der Lage ist solche Einwirkungen zu kompensieren. Kompensationsdefizite in bestimmten Segmenten lassen dann darüber hinaus auch noch Rückschlüsse auf die hauptsächlich gestressten Organsysteme zu. Dies ist interessant im Zusammenhang mit HRV und GUA. Die Aussage resultiert aus zwei Grundreaktionen – nämlich der Stoffwechselfähigkeit einerseits und der neuralen Regelungsfähigkeit andererseits. Damit ist ein feines Testinstrument für z.B. auch elektromagnetische Auswirkungen vorahnden.

 

IR-Oberflächenthermographie

Die Infrarot-Oberflächenthermographie tastet kontaktlos und punktuell die Temperatur der Hautoberfläche ab. Die Temperatur ist hier sehr hochauflösend darstellbar – anders als bei der Thermoregulation (wo dies so hochauflösend nicht nötig ist, da der Regelungsunterschied erfasst wird) – sodass thermische wie nicht-thermische Temperaturveränderungen gezielt in lokalen Bereichen im Vergleich zu anderen Bereichen darstellbar sind. Dies ist die punktuelle und einfache Variante zur aufwändigeren ThermoScan-Methode, die mit einer IR-Cam gemacht werden muss. Die Werte der IR-Thermographie sind Einzelwerte, die den Regionen einzeln zugeordnet werden müssen. Die Dokumentation kann so z.T. der aufwändig werden und setzt ein sehr exaktes, lokales Arbeite voraus. Diese Methode ist aber für schnelle Punktmessungen hochinteressant. Besonders auch als Kontrollmessung der sog. Kerntemperatur bei der Verwendung von IR-ThermoScans, damit die Temperaturveränderungen im Scan durch die synchrone Kontrolle der Kerntemperatur sicherer beurteilbar sind – damit Farbveränderung auch wirklich Farbveränderung ist.

 

IR-Thermo–Scan FLIR

Der Vorteil der ThermoScan-Methode liegt darin, dass hier mit hochauflösenden IR-Kameras z.B. auch Ganzkörperbilder in Echtzeit aufgezeichnet werden können. Die ThermoScan-Cams nehmen dazu ein Infrarot-Abstrahlungsspektrum auf und wandeln dies via EDV in sichtbare Farbabstufungen um. Somit können lokale Temperaturen und Temperaturverläufe optisch und erkennbar dargestellt werden. Und auch jede Veränderung sich sofort auf der gesamten Bildfläche in Echtzeit durch die Farbtemperaturanpassung darstellen lässt. Die aufgenommenen Thermo-Bilder können in den PC übertragen werden und stehen dort für aufwändige Auswertungen und Vergleich zur Verfügung. Die ThermoScan sind besonders interessant um flächige Temperatur-Ausbreitungen und –Verläufe sichtbar zu machen. Die hier auftretenden thermischen Darstellungen können aber auch nicht-thermischer Natur sein –d.h. durch Stoffwechselreaktionen erzeugt sein. Im Vergleich mit z.B. GUA und HRV sind so die Unterschiede zwischen thermischer und nicht-thermischer Erwärmung zu eruieren. Dies ist besonders im Bereich der Elektrosmog-Einwirkungen und solchen Entstörungen bzgl. der Auswirkungen auf den Organismus von bedeutsamer Aussagekraft.

 

Sauerstoffsättigung im Blut

Die Sauerstoffsättigung bezieht sich auf die Menge der oxygenierten Hämoglobinteile, d.h. also wie viel Sauerstoff im Blut aktiv gebunden ist. Die Sauerstoffsättigung zeigt sich in feinsten Farbnuancen in den Kapillargefäßen und lässt daher fast in Echtzeit Veränderungen in der Sättigung dokumentieren. Aufgrund der Erkenntnis aus der Dunkelfeldmikroskopie, dass elektromagnetische Einflüsse auch Auswirkungen auf die Konsistenz der Blutkörperchen, die durch ihren Eisenkern ferromagnetisch reagieren, haben – z.B. durch Koagulationen, Geldrollenbildungen etc. ist die Elektrosmog bedingte Veränderung auch in der Sauerstoffaufnahmefähigkeit der Blutkörperchen durch die Messung der Sauerstoffsättigung laufend darstellbar. Eine Verklumpung vermindert die Kontakt-Oberfläche der Blutkörperchen und damit kommt es zu einer verminderten Oxygenierung. Das führt zu einer verminderten Sättigung mit Sauerstoff im Blut. Es wird hier also ein energetisch erzeugtes sich strukturell auswirkendes Problem am Hämoglobin ersichtlich.

 

Sauerstoffpartialdruck im Blut

Mit dieser Methode wird mit Spezialdiffusions-Goldelektroden der partielle Druck des gelösten Sauerstoffs im Blut gemessen. Der Sauerstoffdruck ist einerseits abhängig vom Sauerstoffangebot in der Luft und andererseits von der Aufnahmefähigkeit des Blutes und letztlich von der Diffusionsfähigkeit im Alveolen-Bereich der Lungen. Diese drei Faktoren sind teils stoffwechselempfindlich aber auch teilweise rein physikalisch abhängig. Im Zusammenhang mit der Sauerstoffsättigung im Blut und der Raum-Umgebungs-Luftsauerstoff-Sättigung lassen sich Rückschlüsse auf die Zellmembranspannung affinen Reaktion der Schleimhäute herleiten. Auch wirken elektromagnetische Störungen sich Potential verschiebend und damit Partialdruck verändernd aus. Wobei diese Untersuchung eher für Langzeitbeobachtungen Verwendung finden kann, denn die Reaktionen sind eher indirekter Natur und unterliegen somit anderen Zeitläufen.

 

PeekFlow-Atem-Ausstoß-Test

Der Atem-Ausstoß-Test ist eine schnell reagierender Test auf physiologische Veränderungen im Lungen-Bronchial-Bereich. Das Zusammenspiel von muskulärer Lungen-Kraft und physiologischer Schleimhaut-Konsistenz bedingen die Möglichkeiten einen Atem-Spitzen-Ausstoß erzeugen zu können. Die ausgestoßene Luftmenge pro Sekunde wird als Spitzenwert dokumentiert. Dieser Test eignet sich auch, mit anderen grundmedizinischen Untersuchungen, um die Konstitution eines Probanden zu beurteilen. Durch die Zusammenhänge des neuronalen Netzes aus vegetativem, peripherem und zentralem Nervensystem ergibt sich hier auch eine schnelle Reaktionsfähigkeit beim Einwirken von z.B. starken elektromagnetischen Störungen, die einem ‚den Atem rauben’.

 

Dunkelfeld-Mikroskopie nach Aschoff

Die Dunkelfeld-Mikroskopie ist eine besondere Betrachtungsform von Objekten unter einem Hochleistungs-Mikroskop. Sie wurde für spezielle Diagnostikaussagen von Dr. Aschoff kreiert. Hierbei wird das Objekt nicht von unten sondern nur von schräg-seitlich-oben mit Licht bestrahlt, sodass sich die Objekte gegen ein dunkles Hintergrundfeld abzeichnen und sich somit räumlich darstellen. Diese Untersuchungsmethodik eignet sich so z.B. hervorragend um die Konsistenz der Häute vom Blutkörperchen und aber auch von der Koagulationsbestrebungen darzustellen. So wird mit dieser Methode auch gerne der ‚Geldrollen’-Effekt der Blutkörperchen dokumentiert. Gerade elektromagnetische Einflüsse können zu Verklumpungen und Verkettungen der ferromagnetisch reagierenden Blutkörperchen kommen. Störende oder auch entstörende Maßnahmen lassen sich so in der morphologischen Strukturierung des Blutes im Dunkelfeld aufzeigen.

 

Immunreaktion im Blut nach Spengler

Im Blut sind eine Reihe von Antikörpern aktiv. Je nach vorangegangener Infektion können dies ein ganzes Spektrum sein. Auf jeden Fall aber haben wir es mit Grippe-Antikörpern und mit solchen gegen Staphylokoggen zu tun. Außerdem gibt es noch die unspezifische, Monozyten gestützte Antikörperreaktion. Im Rahmen dieses Immuntestes werden in großen Crossover-Essays die Immunreaktion auf spezifische Reagenzien hin getestet. Abgesehen vom Erkennen wirklicher noch chronisch vorhandener Infektionen ist besonders die Reaktionsgeschwindigkeit der Koagulation von Grippe-Antikörper mit der Reagenz bei an sich normaler BSG, und somit die gesamte Konsistenz des Blutes im Mikroskop von Interesse. Durch die Beurteilung im Digital-Mikroskop lassen sich so sehr gute Vergleiche im Bereich von Störungen und Entstörungen ggf. darstellen. Koagulationsveränderungen bei normaler BSG sind bemerkenswert für die Reaktionsverfolgung.

 

Vergleichs–Diskrimminations-EEG nach Knop

Basierend auf den Erkenntnissen von Haffelder wissen wir, dass jede Stresserscheinung sich im Gehirn besonders in den Alpha- und Delta-Wellen niederschlägt. Die unterschiedlichen Reaktionen dieser Wellenbereich zeigt sich auch besonders in den unterschiedlichen Reaktionsaktivitäten der beiden Hirnhemisphären deutlich an. Daher kann über das Differenzverhalten der beiden elektrischen Aktivitätsmuster viel über Stress-Einwirkung bei Störungen und auch bei Entstörungen ausgesagt werden. Dazu ist es möglich, die Summenspannungen der beiden Hirnhälften getrennt abzugreifen und miteinander zu korrelieren – d.h. rechnerisch zu überlagern und dann die Abweichungen herauszurechnen und darzustellen. Diese Abweichungen können auch langzeitlich auf einen Schreiber gegeben werden, sodass die Abweichungen über den Verlauf genau zu verfolgen sind. Hier werden sofort die jeweiligen überaktivitäten einer Hirnhälfte sichtbar. Und zwar nach Seitenhälfte und dann noch nach Abweichungsmenge. Dies ist von besonderem Interesse, dass das Gehirn als zentrales Steuerung- und Koordinationsorgan (ZNS) sehr fein auf alle Einflüsse reagiert. Diese Methode ist sogar echtzeitfähig.

 

Psychonervale Vergleichs-Hautleitwert – abgewandelt nach Knop

So wie das Gehirn sofort auf Einflüsse jeglicher Art reagiert, regiert in der Folge die HRV und gleichfalls auch der psychonervale Hautleitwert. Auch hier werden in einer neuen Art beide Reflexe an der Peripherie jeweils links und rechts abgenommen und dann über eine Diskrimminationsschaltung analog miteinander verglichen. Abweichungen vom Mittelwert sind hier von Aussagekraft. Diese Abweichungen können auch auf einen Schreiber gelegt werden und somit über einen längeren Zeitraum die Reaktionen aufzeichnen. Da das System am eigenen Körper zu eichen ist, sind alle Abweichungen in Art und Höhe von Interesse. Dieses Verfahren wird ähnlich auch von aufwändigen ‚Lügendetektoren’ verwendet. Für Elektrosensibilität verwendet auch Prof. von Klitzing ein ähnliches Verfahren. Aussagen über elektromagnetische Belastungen und Entlastungen können sich hier abbilden. Dies ist besonders in der Aussage relevant, wenn parallel die HRV, das EEG und die Körperableitung vorgenommen werden.

 

Gefäß-Ultraschalldoppler

Der Ultraschalldoppler für die Beurteilung der Durchflussgeschwindigkeit in den Blutgefäßen ist schon ein Standard in den meisten Praxen. Mit dem Doppler kann man die Flussart in Geschwindigkeit und Strudelung hör- und aufzeichenbar machen. Der Blutstrom-Qualität ist abhängig vom Gefäßtonus und auch vom Herzzeitvolumen. Schon die Chinesen nutzten diese Beurteilung als Pulsdiagnose für die Beurteilung der Integrität der Lebenskräfte ihrer Patienten. Die Aufzeichnung auf einem Schreiber kann tiefe Rückschlüsse auf das nervale Zusammenspiel von vegetativen und peripheren Nervensystem geben. Damit auch Reaktionen auf z.B. elektromagnetische Störungen und Entstörungen ermöglichen, denn Gefäßtonus und Herzrhythmus reagieren sehr fein auf solche Einflüsse.

 

Hochfrequenzbeugung im Zytoplasma - abgewandelt nach Knop

Ein hochspannendes Verfahren ist die Hochfrequenzbeugung. Dieses Verfahren schleust ein fest definiertes amplitudenmoduliertes HF-Signal in den Körper. Mit spezifischen kontaktlosen Abtastsonden wird nun das austretende Signal mit dem Eingangssignal verglichen. Je weiter die beiden Signalformen von einander sich unterscheiden, so mehr liegen Störungen in der Signalausbreitung vor. Das HF-Signal muss einerseits das Zell-Kolloid durchlaufen und wird andererseits mit dem Zellmembranpotential konfrontiert. Jede änderung der Viskosität des Kolloids und auch jede änderung an der Membranspannung führt zu Veränderungen der austretenden Signalintegrität. Dieses Verfahren wird auch in de Werkstoffprüfung verwendet. Da Zellengewebe bei normaler Funktion normoton sind müsste die Ausbreitung homogen sein – ist sie es nicht, so liegen, lange bevor man dies normalerweise außen ersehen könnte, Störungen in der biophysikalischen und elektrochemischen Konsistenz der Zellplasmas mit Kolloid und Membran vor. Hier können im Summenfeld ggf. sehr fein elektromagnetische Einflüsse besonders thermischer und nicht-thermischer Art darstellbar sein. Hierzu wird ein besonders standardisiertes Abtastsystem flächig über dem Gesamtkörper angewandt, was vom KI entwickelt wurde.

 

Körperpotential-Ankoppelungs-Ableitung

Da der Körper zu rund 70 % aus Meerwasser besteht (0,9 %-ig), reagiert er wie eine große Antenne. Umgebungselektrizität und elektromagnetische Felder koppeln an den Organismus direkt an. Mit speziellen hochempfindlichen Voltmetern kann man diese Spannung gegen Erde abgeleitet messen. Diese Messung ist sehr wichtig zur Beurteilung einerseits der Konsistenz des Organismus in seinen flüssigen Phasen und deren Kompensationsfähigkeit und andererseits als Kontrollinstrument für die Stärke der körperintern aufgebauten Potentiale – damit man bei spezifischen Messungen, analog zur Kerntemperatur-Kontrolle – auch die Reaktionen miteinander vergleichbar machen kann. Die Höhe der messbaren Körperpotentiale ist aber auch ein Ergebnis der Spannungsverarbeitung und Kompensation an den Zellmembranen.

Hier werden auch Standardisierungen mit ausreichenden Probandenzahlen durchgeführt werden müssen, um klare Reaktionskennlinien unter verschiedensten Einflüssen zu erhalten. Weitere Rückschlüsse auf elektromagnetische Einwirkungen und die Auswirkungen auf das messbare Potential sind denkbar, müssen aber erst getestet werden.

 

Biologisch-vegetative Regulation (Ryodoku-AmpliGnost nach Knop)

Durch Dr. Voll wurde 1954 eine Methode der Messung von Akupunkturpunkten entwickelt: Die Elektroakupunktur (EAV). Darauf basieren heute viele ‚neue’ Methoden, wie IMEDIS, PROGNOS, HOLOGRAPHIE, BFD, VEGATEST etc. Alle haben aber die Unsicherheit der Messwertabnahme nicht gelöst, daher werden sie seitens der klinischen Medizin zurecht abgelehnt. Auch wenn das KI selbst über das Ur-Verfahren nach Voll verfügt, wird es nicht benutzt. Parallel zu Voll wurde in Japan vom Neurologen Prof. Nakatani eine neural-orientiertes Verfahren entwickelt; Das Ryodoraku. Dieses Verfahren arbeitete auf einer Vergleichsbeurteilung und war somit viel genauer als die EAV. Es lagen aber keine Standard-Werte vor. 1983 begann das KI mit der gezielten Erfassung von Standard-Werten zum Ryodoraku und konnte gesichert Vergleichs- und Abweichungs-Kurven 1989 publizieren. Daraus wurde dann durch das KI das Ryodoku-AmpliGnost weiterentwickelt. Da die methodischen Auswertungen sehr komplex sind, wurde das System noch nicht in den Markt eingeführt. Jedoch hat sich das I-Tronic-Team der Abberationskurven des KI bedient und vor Jahren ein System auf den Markt gebracht. Aber aufgrund der Schutzrechtslage konnten sie weder die durch das KI inaugurierten Messpunkte verwenden noch die dafür notwendige spezielle Flüssigkeitselektrode. Das AmpliGnost misst die Quellpunkte der Meridiane, nach Eichung des systems am Körper selbst. Zur Messwertabnahme wird die spezielle Flüssigkeitselektrode verwendet, die den übergangskontakt nicht auf der Haut sondern erstmals konstant innerhalb der Elektrode herstellt. Dadurch sind alle Probleme der Messwertaufnahme, die es regelmäßig bei der EAV und deren Folgeverfahren gibt, ausgeschaltet. Die Wertabnahme ist reproduzierbar. Dazu kommt, dass diese Werte jetzt nach der gefundenen Abberations-Kurve individuell bereinigt werden und somit auch eine echte Vergleichsmöglichkeit von Messung zu Messung ermöglicht. Der gefundene Mittelwert der gefundenen Abberationsbereinigung wird nun zur Basis der Patienten-Abweichungen im individuellen Energieverteilungsmuster genutz. Damit ist das System in der Lage die Energieverteilung als echte Bioenergiebeurteilung auch graphisch darzustellen. Diese Aussagemöglichkeit ist so auch die Basis des I-Tronic geworden.

 

Visual-Analog-Skalierung (VAS-Test) – ‚Amsterdamer Skala’ – abgewandelt nach Knop

Aus der Schmerztherapie ist die VAS-Testung bekannt und wird auch erfolgreich zur Verlaufsbeurteilung von Schmerzattacken und deren Verlaufscharakteristik verwendet. Der Test, der auch als Amsterdamer Skala bezeichnet wird, nutzt die Visualisierung des Schmerzes mittels einer psychologisch adäquaten Farbe. Je mehr Schmerz, desto mehr Farbe erscheint in einem Fenster in dem VAS-Schieber. Das Besondere ist daran, dass auf der Rückseite in einem analogen Fenster nicht eine Farbe erscheint, sondern eine 10er-Skalierung, die wiederum in 10er Schritte unterteilt ist. Damit wird das visualisierte Phänomen analog skaliert ablesbar; es entsteht ein Wert mit einer Kommastelle. Das KI hat nun das ganze als ‚Wohlbefindens-Skala’ um entwickelt und auch eine adäquate neue Visual-Farbe eingeführt. Damit lassen sich jetzt mit ebenfalls einer Genauigkeit um 5 % subjektive Empfindungen im ‚Wohlfühl’-Bereich analog in Zahlen darstellen.

Diese Testung wird bei Belastungsstudien standardmäßig einzusetzen sein.

 

Keimwachstum

Bakterien, die zum Beispiel regelmäßig auch in der Luft vorkommen, kann man sehr fein im Wachstum beobachten, wenn man sie auf Nährböden, z.B. Agar-Agar, einfängt und dann über einen bestimmten Zeitraum züchtet. Interessant wird das ganze aber besonders, wenn man synchron Nährböden besiedeln lässt und diese dann unter unterschiedlichen Einflüssen züchtet – z.B. durch Verwendung verschieden aufbereiteter Lösungen oder Wasserphasen, durch Beeinflussung mit elektromagnetische Störungen bzw. auch durch Beeinflussung mit entstörenden Maßnahmen. Die Keime als biologische Mikroorganismen haben einen schnellen Stoffwechsel und einen schnellen Generationswechsel, sodass Einwirkungen sich schnell auf das Wachstum der Population auswirken und somit auch erfasst werden können. Im Zusammenhang mit der Digital-Mikroskopie können solche Wachstumsprozesse auch bequem dokumentiert und bildlich ausgewertet werden. Hier kommt es auf die Vermehrung an.

 

Elektrochemisches Messlabor

Die EQC ist ein elektrochemisches Messlabor, das seine Tätigkeit verstärkt auf die Messung von Lebensmitteln, Böden und Komposten verlagert hat. Zur Qualitätsdifferenzierung zwischen verschiedenen Produkten wird dabei speziell dem Redoxpotential eine erhöhte Aussagekraft beigemessen, welches direkt mit der Freien Energie eines biologischen Systems korreliert ist. Abgeleitet aus den beiden Hauptsätzen der Thermodynamik kann gezeigt werden, dass ein niedrigeres Redoxpotential mit einem höheren Ordnungsgrad in einem System korreliert.

Das Redoxpotential repräsentiert ein Maß für das Fließgleichgewicht oxidierter zu reduzierter Substanzen im wässrigen Milieu. Es ist ein messbarer Summenparameter, der Informationen über die Elektronenenergie eines Mediums liefert, ohne dass man die Einzelstoffe kennen muss. Träger dieser Energie sind u.a. die sekundären Pflanzenwirkstoffe wie Vitamin C, die Phenole und die Flavonoide. Im Gegensatz zu Pflanzen, die ein Maximum am Inhaltsstoffen durch eine optimale Adaption an die Umgebung erreichen, benötigt der menschliche Körper energiereiche Verbindung aus Lebensmittel, um Ordnungsstrukturen aufzubauen und chaotische Prozesse im Körper zu minimieren.

Mit der Aufnahme von Lebensmitteln erfolgt über die Verdauung ein schrittweiser Abbau von elektronenreichen Verbindungen (Redoxpotential NADH/H ca. –500 mV) bis zur Bindung an Sauerstoff ( ca. + 750 mV). Je niedriger der Redoxwert ist, desto größer ist die Fähigkeit eines Lebensmittels, Elektronen abzugeben und einen Beitrag zur Deaktivierung von Freien Radikalen zu leisten. Basis für diese überlegung sind zahlreiche Messungen, die einen Zusammenhang zwischen niedrigem Redoxpotential und stressfreier Erzeugung von Produkten belegen.Neuere Messergebnisse liefern einen Hinweis auf den direkten Zusammenhang zwischen dem Redoxpotential im Boden und dem Redoxpotential in den darauf gewachsenen Produkten. Alle diese Messungen sind ein Indiz dafür, dass mit Hilfe des Redoxpotentials die Qualität vom Boden bis zum Fertigprodukt verifiziert werden kann. Ein typisches Beispiel für den Einfluss des Bodens auf die Qualität von Kartoffeln zeigt die Graphik. Auch eine Optimierung des Bodens wäre mit dieser Messmethode möglich.

 

Pflanzenwachstum

Letztlich ist ein weiteres gutes Instrument zur Beurteilung von elektromagnetischen Ein- und Auswirkungen das Keimungsverhalten von Roggen-Keimen in normalen Böden. Hierzu werden in mehreren Schalen mit gleichen Böden jeweils die gleiche Anzahl von Roggen-Keimen angesetzt. Das Wachstum wird mit zeitgesteuerten Wachstumslampen standardisiert. Nun können in den verschiedenen Populationen unterschiedliche Einflüsse, immer gegen eine Kontroll-Population beurteilt, zugeführt werden. Dies können elektrische Felder sein, aber auch elektromagnetische Bestrahlung wie auch besonders aufbereitetes Wasser, was zum täglichen Gießen notwendig ist, kann Verwendung finden. Nach einem bestimmten Zeitraum werden dann alle Roggen-Pflanzlinge geerntet und in einem mehrstufigen Zählfeld nach der Wachstumsgröße sortiert verteilt. Damit ergibt sich ein standardisierbares Zählungssystem, was die einzelnen Populationen in ihrem Wachstumsverhalten einfach beziffern lässt. Hier kommt es auf die Wachstumsfähigkeit an.

 

Die Roggen-Pflanzlinge können dann aber zusätzlich auch mit der refraktometrischen Methode auf z.B. gelöste Zuckeranteile hin untersucht und beurteilt werden. Das gibt zusätzliche Erkenntnisse über die Zell-Qualität der Roggen-Pflanzlinge.

Der GFG stehen somit direkt aufgeführten breitgefächerten, hoch differenzierte Mess- und Analyse-Methoden zur Verfügung, die in dieser Breite, auch mit der entsprechend vorhandenen Fachkompetenz an Personal, nur in Ausnahmefällen zusammen in einem Labor nutzbar sind. In der Studienarbeit der GFG werden z.T. bis zu 7 Methoden in einer Testreihe synchron angewendet, um möglichst Ergebnisse mit multiplen Parameter-änderungen erfassen zu können. Nur dadurch lassen sich weitergehende Beurteilungen erstellen.

 

Dieser Labor-Test-Umfang ist daher auch geeignet, gemäß der Hyland-Vorgabe multiple Test-Modelle aufzubauen, die gerade die nicht-thermischen, also nicht Leistungsflussdichte bezogenen Effekte im Zusammenhang mit Mobilfunk und Elektrosmog aufzudecken. Hier entsprechende Mess-Modelle mit normalen Labor-Methoden zu finden wird die anspruchsvolle Hauptarbeit der GFG in den nächsten Jahren sein. Es muss so aber auch Methode für Methode und auch die einzelnen Kombinationsmöglichkeiten Schritt-für-Schritt getestet und beurteilt werden. Diese gefundenen, funktionierenden und reproduzierbaren Modelle sind dann nach Hyland auch aussagekräftig und nutzbar.