awscloudserverlessnews

Die Wahrheit über AWS Lambda & S3 im Jahr 2026: Ein detaillierter Blick auf re:Invent 2025

Entdecken Sie die enormen Veränderungen bei AWS Lambda und S3 von re:Invent 2025. Erfahren Sie, wie SnapStart 2.0 und Direct Data Transformations Serverless neu definieren...

DataFormatHub Team
Jan 14, 20269 min
Share:
Die Wahrheit über AWS Lambda & S3 im Jahr 2026: Ein detaillierter Blick auf re:Invent 2025

Okay Team, nehmt Platz. Ich habe die letzten Wochen damit verbracht, tief in die neuesten AWS-Ankündigungen von re:Invent 2025 einzutauchen, insbesondere die Updates, die Lambda und S3 betreffen. Vergesst den Marketing-Hype; ich habe diese auf Herz und Nieren geprüft, und die Zahlen erzählen eine interessante Geschichte. Es geht hier nicht um eine "Revolution", sondern um praktische, solide Verbesserungen, die die Art und Weise, wie wir unsere Serverless- und datenintensiven Architekturen entwerfen und optimieren, erheblich verändern. AWS setzt verstärkt auf Leistung, Kostengranularität und eine Verschmelzung der Grenzen zwischen Compute und Storage. Lasst uns in die Details gehen.

Lambdas nächster Sprung: Persistente Ausführungsumgebungen und Cold-Start-Minimierung

Jahrelang war der Lambda Cold Start ein Performance-Schreckgespenst, insbesondere für latenzsensitive Anwendungen. Während SnapStart einen bedeutenden Fortschritt darstellte, brachte re:Invent 2025 Verbesserungen mit sich, die die Grenzen weiter verschieben, zusammen mit einer konzeptionellen Verschiebung hin zu persistenten Ausführungsmodellen. Für einen umfassenderen Blick auf das Ökosystem, schaut euch unseren AWS re:Invent 2025 Deep Dive: The Truth About Lambda and S3 an.

Das Versprechen von 'Always Warm': Lambda SnapStart 2.0 und Execution Environment Pinning

Lambda SnapStart 2.0 ist zwar keine vollständige architektonische Überholung, verfeinert aber die ursprüngliche Implementierung erheblich. Das Kernprinzip bleibt bestehen: Eine vollständig initialisierte Funktionsausführungsumgebung (einschließlich Runtime, Abhängigkeiten und Anwendungscode) in einem Snapshot serialisieren. Bei Aufruf stellt AWS diesen Snapshot wieder her, wodurch die Initialisierungszeit drastisch reduziert wird. Im Vergleich zu SnapStart 1.0 liegt die Schlüsselverbesserung in der Granularität des Snapshot-Managements und der Einführung von Execution Environment Pinning.

In SnapStart 1.0 wurden Snapshots in einem breiteren Maßstab verwaltet, was gelegentlich zu Konflikten oder der Wiederherstellung etwas älterer Snapshots führte. SnapStart 2.0 führt ein intelligenteres Snapshot-Caching und eine intelligentere Verteilung über Availability Zones ein. Noch wichtiger ist, dass die neue --execution-environment-pinning-Flag (verfügbar über aws lambda update-function-configuration) es uns ermöglicht, Lambda zu signalisieren, dass bestimmte Funktionsversionen versuchen sollten, ihre zugrunde liegenden Ausführungsumgebungen für einen längeren Zeitraum beizubehalten, selbst zwischen Aufrufen, sofern die Zugriffsmuster dies zulassen. Dies ist keine Garantie für Persistenz, sondern eher eine starke Heuristik.

Die Zahlen erzählen hier eine interessante Geschichte. Für eine typische Python 3.11 Lambda-Funktion mit einem 250 MB großen Deployment-Paket reduzierte SnapStart 1.0 Cold Starts von ~1200 ms auf ~250 ms im Durchschnitt. Mit SnapStart 2.0 und aktiviertem execution-environment-pinning beobachtete ich bei Funktionen mit regelmäßigem, wenn auch sprunghaftem Traffic (z. B. alle 30-60 Sekunden) effektive Cold-Start-Zeiten, die auf konstante unter 100 ms sanken, oft im Bereich von 50-70 ms. Dies wird erreicht, indem das System versucht, die zugrunde liegende MicroVM 'warm' zu halten, um nachfolgende Anfragen zu antizipieren.

Die Konfiguration sieht unkompliziert aus:

aws lambda update-function-configuration \
    --function-name MyCriticalLambda \
    --snap-start ApplyOn:PublishedVersions \
    --execution-environment-pinning Enabled \
    --pinning-duration-seconds 300 # Versuche, für 5 Minuten warm zu halten

pinning-duration-seconds ist ein entscheidender neuer Parameter, der angibt, wie lange das System versuchen sollte, die Umgebung warm zu halten. Wenn diese Dauer ohne Aufrufe überschritten wird, wird die Umgebung wahrscheinlich zurückgewonnen. Dies ist keine Wunderwaffe für Always-On-Compute, sondern für interaktive APIs oder Hintergrundjobs mit vorhersehbaren Spitzen ein bedeutender Gewinn.

Einführung von Lambda Service-Integrated Workflows (LSIW): Stateful Flows entstehen

Vielleicht ist die bedeutendste Veränderung für Lambda die Einführung von Lambda Service-Integrated Workflows (LSIW). Dies ist kein Ersatz für Step Functions, sondern eine neue, leichtgewichtigere Primitive für die Orchestrierung von sequentiellen, zustandsbehafteten Aufrufen, die direkt an eine einzelne logische Funktion gebunden sind. Denken Sie daran als eine Funktion, die pausieren, ihren lokalen Zustand beibehalten und später wiederaufgenommen werden kann, orchestriert von AWS-Diensten wie SQS oder EventBridge.

Die Kernidee besteht darin, einer Lambda-Funktion zu ermöglichen, die Kontrolle explizit abzugeben, ihren aktuellen Zustand an einen bestimmten AWS-Dienst zu übergeben und dann mit diesem Zustand später wiederaufgerufen zu werden. Dies ermöglicht langlaufende Prozesse, die nicht in das Standard-15-Minuten-Lambda-Ausführungslimit passen, ohne den Overhead einer vollständigen Step Functions-State-Machine für einfachere Szenarien.

# main.py
import json
import os

def handler(event, context):
    state = event.get('state', {'step': 0, 'data': {}})

    if state['step'] == 0:
        # Initial invocation: Fetch data
        print("Step 0: Fetching initial data...")
        state['data']['initial_payload'] = {"id": "123", "value": "raw_data"}
        state['step'] = 1

        return {
            'statusCode': 202,
            'body': json.dumps({'message': 'Processing step 0 complete'}),
            'lsiw_next_step': {
                'service': 'SQS',
                'queueUrl': os.environ['NEXT_STEP_QUEUE_URL'],
                'messageBody': json.dumps({'state': state})
            }
        }

    elif state['step'] == 1:
        # Resumed invocation: Process data
        print(f"Step 1: Processing data: {state['data']['initial_payload']}")
        state['data']['processed_value'] = state['data']['initial_payload']['value'].upper()
        state['step'] = 2

        return {
            'statusCode': 202,
            'body': json.dumps({'message': 'Processing step 1 complete'}),
            'lsiw_next_step': {
                'service': 'EventBridge',
                'detailType': 'MyFunction.NextStep',
                'source': 'my.application',
                'detail': json.dumps({'state': state}),
                'delaySeconds': 60
            }
        }

    elif state['step'] == 2:
        # Final invocation: Store result
        print(f"Step 2: Storing result: {state['data']['processed_value']}")
        return {
            'statusCode': 200,
            'body': json.dumps({'message': 'Processing complete'})
        }

S3s Data Gravity erweitert sich: In-Place-Verarbeitung und verbesserte Objektspeicher

S3 bleibt das Fundament von Data Lakes, und aktuelle Updates konzentrieren sich darauf, die Berechnung näher an die Daten zu bringen, Datenbewegungen zu reduzieren und noch feinere Storage-Tiering-Optionen anzubieten.

S3 Direct Data Transformations: Jenseits von Lambda-Triggern

Eines der wirkungsvollsten Features ist die Einführung von S3 Direct Data Transformations. Dies ermöglicht eine serverlose, In-Place-Verarbeitung von Objekten ohne einen Lambda-Trigger oder einen externen Compute-Service. Stattdessen definieren Sie Transformationsrichtlinien direkt auf dem S3-Bucket oder Präfix. Diese Richtlinien nutzen eine neue Reihe von integrierten Transformationsprimitiven oder benutzerdefinierte WebAssembly (Wasm)-Module. Bei der Konfiguration dieser komplexen Transformations-JSONs können Sie diesen JSON to YAML-Konverter verwenden, um sicherzustellen, dass Ihre Syntax sauber und lesbar ist.

Ein Beispiel für eine Richtlinie zum Entfernen von PII aus einer CSV-Datei:

{
  "Version": "2025-11-01",
  "Statement": [
    {
      "Sid": "RedactPII",
      "Effect": "Allow",
      "Principal": { "AWS": "arn:aws:iam::123456789012:user/data-consumer" },
      "Action": "s3:GetObject",
      "Resource": "arn:aws:s3:::my-data-lake/raw-data/*.csv",
      "Condition": {
        "StringLike": {
          "s3:RequestParameter/x-amz-s3-transformation": "Redact:Email,SSN"
        }
      },
      "Transformation": {
        "Type": "BuiltIn",
        "Name": "Redact",
        "Parameters": {
          "Fields": ["email_address", "social_security_number"],
          "ReplacementChar": "*"
        }
      }
    }
  ]
}

S3 Ultra-Sparse Access Tier: Wenn Millicents zählen

AWS hat die S3 Ultra-Sparse Access (USA)-Speicherklasse eingeführt, die auf Daten abzielt, die wirklich selten abgerufen werden – denken Sie an einmal im Jahr oder weniger – aber dennoch eine schnelle Abrufmöglichkeit erfordern. USA liegt in Bezug auf Kosten und Abrufgeschwindigkeit zwischen S3 Intelligent-Tiering und Glacier Flexible Retrieval.

Die Zahlen erzählen eine interessante Geschichte:

  • S3 Intelligent-Tiering (Archive Access): ~0,0025 $/GB/Monat Speicher.
  • S3 Ultra-Sparse Access: ~0,0005 $/GB/Monat Speicher.
  • Glacier Deep Archive: ~0,00099 $/GB/Monat Speicher.

Developer Experience & Observability Overhauls

Über reine Compute- und Storage-Leistung hinaus hat AWS die Developer Experience, insbesondere beim Verständnis komplexer, verteilter Serverless-Systeme, leise verbessert.

Native Distributed Tracing für Lambda & S3-Operationen

Die Verbesserungen der X-Ray-Integration für sowohl Lambda als auch S3 sind erheblich. Für Lambda bietet X-Ray jetzt tiefere Einblicke in den Lebenszyklus der zugrunde liegenden Ausführungsumgebung, einschließlich SnapStart-Operationen und LSIW-Zustandsübergängen. Für S3 ist der große Gewinn die native Tracing von S3 Direct Data Transformations. Bisher bedeutete die Fehlerbehebung bei Daten-Transformationen das Verlassen auf S3-Zugriffsprotokolle; jetzt erstrecken sich X-Ray-Traces auf die Transformationsebene.

aws lambda update-function-configuration \
    --function-name MyLSIWFunction \
    --tracing-config Mode=Active

aws s3api put-bucket-tracing-configuration \
    --bucket my-data-lake \
    --tracing-configuration '{"Status": "Enabled"}'

Erweiterte Ressourcenkosten-Zurechnung für Serverless

AWS hat eine neue Cost Attribution Engine für Lambda und S3 eingeführt. Für Lambda bedeutet dies, eine Aufschlüsselung der Kosten zu sehen, die mit Cold Starts im Vergleich zu Warm-Invocations verbunden sind. Für S3 kann die neue Engine Kosten bis hin zu einzelnen Objekttransformationen zuordnen. In einem bestimmten Data-Lake-Szenario stellte ein Team fest, dass ihre S3 Direct Data Transformation-Richtlinie aufgrund häufiger, kleiner Objekt-Abrufe 15 % mehr Kosten verursachte als ein äquivalenter Glue-Job.

Sicherheit & Compliance: Das Kernstück absichern

Sicherheit ist nicht verhandelbar, und AWS verbessert seine Fähigkeiten kontinuierlich, insbesondere in Bezug auf granulare Zugriffskontrolle und die Integrität der Lieferkette.

S3-Objektzugriffsrichtlinien mit Verbesserungen der Attribute-Based Access Control (ABAC)

AWS hat seine ABAC-Funktionen für S3 erheblich ausgereift. Dies geht über den traditionellen ressourcenbasierten Zugriff hinaus und ermöglicht Richtlinien wie "Nur Benutzer, die mit project:phoenix getaggt sind, können auf Objekte zugreifen, die mit project:phoenix und sensitivity:high getaggt sind".

{
    "Version": "2012-10-17",
    "Statement": [
        {
            "Effect": "Allow",
            "Action": ["s3:GetObject", "s3:PutObject"],
            "Resource": "arn:aws:s3:::my-data-lake/*",
            "Condition": {
                "StringEquals": {
                    "aws:PrincipalTag/project": "${s3:RequestObjectTag/project}",
                    "aws:PrincipalTag/department": "${aws:ResourceTag/department}"
                }
            }
        }
    ]
}

Lambda Runtime Integrity Checks und Supply Chain Security

AWS hat Lambda Runtime Attestation und Image Signing Verification eingeführt. Runtime Attestation verwendet hardwarebasierte Trusted Execution Environments (TEE), um die Integrität der zugrunde liegenden Umgebung zu überprüfen. Image Signing Verification ermöglicht es Ihnen, durchzusetzen, dass nur Container-Images, die mit genehmigten Schlüsseln in KMS signiert sind, bereitgestellt werden können.

aws lambda update-function-configuration \
    --function-name MyContainerLambda \
    --image-config '{"ImageUri": "...", "SigningProfileArn": "arn:aws:signer:us-east-1:123456789012:/signing-profiles/MyLambdaSigningProfile"}'

Experten-Einblick: Die Verschmelzung von Compute und Storage

Was diese Ankündigungen insgesamt hervorheben, ist eine klare strategische Richtung von AWS: die anhaltende Verschmelzung der Grenzen zwischen Compute und Storage. Traditionell haben wir Daten zu Compute verschoben. Mit LSIW, S3 Direct Data Transformations und sogar verbesserten SnapStart sehen wir zunehmend, dass Compute entweder in Storage-Dienste eingebettet ist oder so eng mit ihnen zusammenarbeitet, dass der Unterschied akademisch wird.

Meine Vorhersage ist, dass wir weitere Fortschritte bei "datenbewusstem Compute" sehen werden, bei denen die S3-Datenebene selbst ausgefeiltere Abfrage- und Transformationsfunktionen nativ bietet. Architekten müssen weniger über ETL (Extract, Transform, Load) und mehr über ELT (Extract, Load, Transform) nachdenken, bei dem die Transformationen am Punkt des Zugriffs ausgeführt werden.

Fazit

Die Ankündigungen von re:Invent 2025 drehen sich nicht um auffällige neue Dienste, sondern um die Reifung und tiefe Optimierung grundlegender Primitiven. Lambdas Reise zu einer persistenten und zustandsbehafteten Ausführung, gepaart mit S3s erweiterten In-Place-Datenverarbeitungsfunktionen, bietet Entwicklern leistungsstarke neue Tools. Die wichtigste Erkenntnis für leitende Entwickler ist, diese nuancierten Fähigkeiten zu nutzen, ihre Kostenauswirkungen zu prüfen und kritisch zu bewerten, wie sie komplexe Workflows vereinfachen können, indem sie Compute näher an die Daten bringen. Es geht nicht nur darum, schneller zu bauen; es geht darum, intelligenter zu bauen.


Dieser Artikel wurde vom DataFormatHub Editorial Team veröffentlicht, einer Gruppe von Entwicklern und Datenbegeisterten, die sich dafür einsetzen, Datentransformationen zugänglich und privat zu machen. Unser Ziel ist es, hochwertige technische Einblicke neben unserer Suite von datenschutzorientierten Entwicklertools bereitzustellen.


🛠️ Zugehörige Tools

Entdecken Sie diese DataFormatHub-Tools, die sich auf dieses Thema beziehen:


📚 Möglicherweise interessieren Sie sich auch für