Kiến thức cần nắm:
Giải thích chi tiết:
Transparency trong GenAI:
| Aspect | Implementation | Mục đích |
|---|---|---|
| Source attribution | RAG citations | User biết thông tin từ đâu |
| Confidence scores | Model probability outputs | Đánh giá độ tin cậy |
| Reasoning traces | Bedrock agent tracing | Debug và audit agent decisions |
| Explanations | Chain-of-thought prompting | User hiểu logic của AI |
Bedrock Agent Tracing:
enableTrace: true trong API callKiến thức cần nắm:
Giải thích chi tiết:
Fairness Testing Approaches:
A/B Testing với Prompt Management:
LLM-as-a-Judge:
SageMaker Clarify:
Exam Tip: LLM-as-a-Judge là approach mới và quan trọng. Amazon Bedrock hỗ trợ automated model evaluations sử dụng technique này. Hiểu cách setup và interpret results.
Kiến thức cần nắm:
Giải thích chi tiết:
Compliance Checklist cho GenAI:
| Requirement | Implementation |
|---|---|
| Content safety | Bedrock Guardrails |
| PII protection | Guardrails PII filters + Comprehend |
| Audit trail | CloudTrail + CloudWatch Logs |
| Access control | IAM + VPC endpoints |
| Model documentation | SageMaker Model Cards |
| Bias monitoring | SageMaker Clarify + A/B testing |
| Data retention | S3 Lifecycle policies |
| Incident response | CloudWatch Alarms + SNS + Lambda |
Automated Compliance Checks:
# Lambda function cho automated compliance
def check_compliance(event, context):
# Check 1: Guardrails enabled?
guardrails = bedrock.list_guardrails()
# Check 2: Model invocation logging enabled?
logging_config = bedrock.get_model_invocation_logging_configuration()
# Check 3: VPC endpoints configured?
vpc_endpoints = ec2.describe_vpc_endpoints(
Filters=[{'Name': 'service-name', 'Values': ['*bedrock*']}]
)
# Report findings
return {
'guardrails_enabled': len(guardrails['guardrails']) > 0,
'logging_enabled': logging_config.get('loggingConfig') is not None,
'vpc_endpoints': len(vpc_endpoints['VpcEndpoints']) > 0
}