SAP Basis SM21 Systemprotokoll - SAP Corner

Direkt zum Seiteninhalt
SM21 Systemprotokoll
Tools für SAP-Experten
Bei der horizontalen Skalierung wird die Verteilung der Daten auf die Knoten explizit festgelegt. Wenn Sie Tabellenreplikation nicht explizit einschalten, werden Daten nicht redundant, also auf unterschiedlichen Rechnern gleichzeitig gehalten. Eine Neuverteilung kann über Administrationswerkzeuge durchgeführt werden. Ist einmal festgelegt, welche Tabelle bzw. Partition einer Tabelle auf einem bestimmten Knoten liegt, legt dies auch fest, auf welchem Knoten die Anfrage bearbeitet wird. Damit ist im Falle der horizontalen Skalierung eine gute Datenlokalität entscheidend für eine gute Performance, denn beim Transport zwischen Knoten entstehen signifikante Mehrkosten. Es ist der Trend zu beobachten, dass horizontale Skalierung bei reinen OLAP-Systemen (SAP Business Warehouse on SAP HANA) bereits weit verbreitet ist, während sich diese Entwicklung bei OLTP-Systemen erst am Anfang befindet.

Big-Data-Lösungen verwalten Daten im Petabyte-Bereich. Big-Data-Architekturen unterscheiden zwischen heißen und kalten Daten. Die kalten Daten werden auch als Datensee (Data Lake) bezeichnet. Auf diesen Daten werden in Hintergrundprozessen Analysen und Prozesse wie maschinenbasiertes Lernen ausgeführt, und auf diese wird nur bei Bedarf zugegriffen (historische Daten oder Details). Komplementär dazu werden als heiße Daten die Daten bezeichnet, auf denen Benutzer interaktiv Analysen ausführen. SAP HANA bietet sich als Speicher für heiße Daten an. Komplementäre Speicher für kalte Daten können u. a. sein: SAP IQ bzw. der SAP HANA Extended Storage als festplattenorientierte, spaltenorientierte Datenbank für analytische Anwendungen, mit denen Daten bis in den Petabyte-Bereich verwaltet werden können, SAP Vora als Abfrage-Engine für Big-Data-Speichersysteme (wie HDFS/S3) mit enger Integration in SAP HANA.
SAP-Services und Hardwarelandschaft
Von Verdrängungen (Swaps) abzugrenzen sind Invalidierungen, die in der Spalte Swaps nicht enthalten sind. Bei einer Invalidierung wird ein gepuffertes Objekt (z. B. ein Programm oder eine Tabelle) für ungültig erklärt, weil es geändert wurde. Invalidierungen von gepufferten Objekten führen ebenfalls zu einer verminderten Trefferrate und zu Nachladevorgängen von der Datenbank, können aber mit diesem Monitor nicht identifiziert werden. Invalidierungen treten u. a. dann auf, wenn Programme oder Customizing-Einstellungen im produktiven Betrieb geändert oder in ein produktives System transportiert werden. Daher sollten Importe in ein produktives System zu Zeiten mit hoher Last unterbleiben, und stattdessen an ein oder zwei Terminen pro Woche zu Zeiten mit niedriger Systemlast vorgenommen werden. Tabellen, die zu groß für die Pufferung sind, können ebenfalls zu Problemen in den Tabellenpuffern führen. Diesem Thema ist Kapitel 12, »SAP-Pufferung«, gewidmet.

Die Auswertung der statistischen Einzelsätze ermöglicht es Ihnen, einzugrenzen, in welchen Bereichen Performanceprobleme bei einzelnen Programmen auftreten: Probleme durch ineffiziente Tabellenpufferung / Probleme durch teure SQL-Anweisungen / Probleme durch hohen CPU-Verbrauch von ABAP-Anweisungen. Sofern sich Ihre Transaktionen über mehrere SAP-Systeme erstrecken, ist eine End-to-End-Workload-Analyse von Bedeutung. Diese kann mit dem globalen Workload-Monitor, den Sie im SAP NetWeaver AS ABAP finden, oder mit dem SAP Solution Manager durchgeführt werden.

Tools wie "Shortcut for SAP Systems" ergänzen fehlende Funktionen im Bereich der SAP Basis.

Beachten Sie, daß nach dem Durchlaufen des Testszenarios die Queue wieder leer ist und neu definiert werden muß.

Einige nützliche Tipps aus der Praxis zum Thema SAP Basis finden Sie auch auf der Seite www.sap-corner.de.

Fast alle Datenbanksysteme bieten auch spezifische Statistiken über die ausgeführten SQL-Anweisungen an.
SAP Corner
Zurück zum Seiteninhalt