스트리밍 데이터를 쉽게 캡처하고 변환하며 로드합니다. 클릭 몇 번으로 전송 스트림을 생성하고 대상을 선택하여 실시간 데이터 스트리밍을 시작합니다.
지속적인 관리 없이 자동으로 컴퓨팅, 메모리, 네트워크 리소스를 프로비저닝하고 크기를 조정합니다.
원시 스트리밍 데이터를 Apache Parquet와 같은 형식으로 변환하고, 자체 처리 파이프라인을 구축하지 않고도 스트리밍 데이터를 동적으로 분할합니다.
Amazon Managed Streaming for Kafka(MSK)의 주제, Kinesis Data Streams의 소스 또는 Firehose Direct PUT API를 사용하여 작성된 데이터 등 데이터 스트림의 소스를 선택합니다. Amazon Data Firehose는 20개 이상의 AWS 서비스와 통합됩니다. 따라서 데이터베이스(평가판), Amazon CloudWatch Logs, AWS WAF 웹 ACL 로그, AWS Network Firewall 로그, Amazon SNS, AWS IoT와 같은 소스의 스트림을 설정할 수 있습니다.
데이터 스트림을 Parquet 또는 ORC와 같은 형식으로 변환할지, 데이터를 압축 해제할지, 자체 AWS Lambda 함수를 사용하여 사용자 지정 데이터 변환을 수행할지, 속성을 기반으로 입력 레코드를 동적으로 분할하여 다른 위치로 전송할지 지정합니다.
Amazon S3, Amazon OpenSearch Service, Amazon Redshift, Splunk, Snowflake, Apache Iceberg Tables, Amazon S3 Tables(평가판) 또는 사용자 지정 HTTP 엔드포인트 등 스트림의 대상을 선택합니다.
Amazon Data Firehose에 대한 자세한 내용은 Amazon Data Firehose 설명서를 참조하세요.
데이터를 Amazon S3로 스트리밍하고, 처리 파이프라인 구축 없이 데이터를 분석에 필요한 형식으로 변환합니다.
네트워크 보안을 실시간으로 모니터링하고, 잠재적 위협이 발생할 경우 지원되는 보안 정보 및 이벤트 관리(SIEM) 도구를 사용해 알림을 생성합니다.
기계 학습(ML) 모델을 통해 데이터 스트림을 보강하여, 스트림이 대상으로 이동할 때 데이터를 분석하고 추론 엔드포인트를 예측합니다.