책임감 있는 AI의 개인 정보 보호 관행에는 민감한 정보를 사용할 때의 잠재적 영향을 고려하는 것이 포함됩니다. 여기에는 법률 및 규제 요건을 준수하는 것뿐만 아니라 사회적 규범과 일반적인 개인의 기대치를 고려하는 것도 포함됩니다. 예를 들어 ML 모델이 노출된 데이터의 측면을 기억하거나 공개할 수 있다는 점을 고려하여 개인의 개인 정보를 보호하기 위해 어떤 보호 조치를 취해야 하나요? 사용자가 자신의 데이터를 충분히 투명하게 파악하고 제어할 수 있도록 하려면 어떤 조치를 취해야 하나요?
PAIR Explorables의 대화형 둘러보기를 통해 ML 개인 정보 보호에 대해 자세히 알아보세요.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["필요한 정보가 없음","missingTheInformationINeed","thumb-down"],["너무 복잡함/단계 수가 너무 많음","tooComplicatedTooManySteps","thumb-down"],["오래됨","outOfDate","thumb-down"],["번역 문제","translationIssue","thumb-down"],["샘플/코드 문제","samplesCodeIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-02-25(UTC)"],[[["Responsible AI privacy practices involve respecting legal and regulatory requirements, social norms, and individual expectations regarding sensitive data."],["Safeguards are crucial to ensure individual privacy, as ML models can retain and potentially reveal aspects of the data used in training."],["Transparency and user control over their data are essential considerations in responsible AI development."],["Google's PAIR Explorables offer interactive learning experiences to deepen your understanding of ML privacy concepts like randomized response, federated learning, and data leakage."]]],[]]