برای دسترسی و نمایش مقادیر احتمال برای هر دسته در حاشیه نویسی جستجوی ایمن با استفاده از ویژگی پیشرفته درک تصاویر Google Vision API، می توانید از پاسخ دریافتی از تماس API استفاده کنید. پاسخ حاوی یک شی JSON است که شامل اطلاعات حاشیه نویسی جستجوی ایمن، از جمله مقادیر احتمال برای دسته های مختلف است.
هنگام درخواست از API، باید تصویری را که می خواهید آنالیز کنید مشخص کنید. سپس API تصویر را پردازش می کند و پاسخی حاوی اطلاعات مختلف از جمله حاشیه نویسی جستجوی ایمن را برمی گرداند. حاشیه نویسی جستجوی ایمن ارزیابی احتمال اینکه تصویر حاوی محتوای صریح در دسته بندی های مختلف باشد، مانند بزرگسالان، پزشکی، خشونت آمیز، جعلی و نژادپرستانه ارائه می دهد.
برای دسترسی به مقادیر احتمال هر دسته، می توانید پاسخ JSON را تجزیه و اطلاعات مربوطه را استخراج کنید. حاشیه نویسی جستجوی ایمن با فیلد "SearchAnnotation" در پاسخ نشان داده می شود. در این قسمت، مقادیر احتمال را برای هر دسته پیدا خواهید کرد.
در اینجا مثالی از نحوه دسترسی و نمایش مقادیر احتمال با استفاده از پایتون آورده شده است:
python import json # Assuming you have the API response stored in a variable called 'response' response = { "safeSearchAnnotation": { "adult": "VERY_UNLIKELY", "spoof": "UNLIKELY", "medical": "VERY_UNLIKELY", "violence": "VERY_UNLIKELY", "racy": "VERY_UNLIKELY" } } # Parse the JSON response data = json.loads(response) # Access and display the likelihood values likelihood_values = data["safeSearchAnnotation"] for category, likelihood in likelihood_values.items(): print(f"{category}: {likelihood}")
کد بالا مقادیر احتمال را برای هر دسته خروجی می دهد:
adult: VERY_UNLIKELY spoof: UNLIKELY medical: VERY_UNLIKELY violence: VERY_UNLIKELY racy: VERY_UNLIKELY
با دسترسی و نمایش این مقادیر احتمال، می توانید سطح محتوای صریح در تصویر را در دسته های مختلف تعیین کنید. این اطلاعات می تواند در برنامه های مختلف مانند تعدیل محتوا، فیلتر کردن یا سیستم های کنترل والدین مفید باشد.
برای دسترسی و نمایش مقادیر احتمال برای هر دسته در حاشیه نویسی جستجوی ایمن با استفاده از ویژگی پیشرفته درک تصاویر Google Vision API، باید پاسخ API را تجزیه کنید و اطلاعات مربوطه را از قسمت "SafeSearchAnnotation" استخراج کنید. این اطلاعات می تواند به شما در ارزیابی وجود محتوای صریح در دسته های مختلف کمک کند.
سایر پرسش ها و پاسخ های اخیر در مورد درک تصاویر پیشرفته:
- چند دسته از پیش تعریف شده برای تشخیص شی در Google Vision API چیست؟
- روش توصیه شده برای استفاده از ویژگی تشخیص جستجوی ایمن در ترکیب با سایر تکنیک های تعدیل چیست؟
- چگونه می توانیم حاشیه نویسی جستجوی ایمن را با استفاده از Google Vision API در پایتون بدست آوریم؟
- پنج دسته شامل ویژگی تشخیص جستجوی ایمن چیست؟
- ویژگی جستجوی ایمن Google Vision API چگونه محتوای صریح درون تصاویر را تشخیص میدهد؟
- چگونه می توانیم با استفاده از کتابخانه بالش، اشیاء شناسایی شده در یک تصویر را به صورت بصری شناسایی و برجسته کنیم؟
- چگونه می توانیم اطلاعات شی استخراج شده را در قالب جدولی با استفاده از قاب داده پانداها سازماندهی کنیم؟
- چگونه می توانیم تمام حاشیه نویسی های شی را از پاسخ API استخراج کنیم؟
- از چه کتابخانه ها و زبان برنامه نویسی برای نشان دادن عملکرد Google Vision API استفاده می شود؟
- Google Vision API چگونه تشخیص و محلی سازی اشیاء را در تصاویر انجام می دهد؟
مشاهده سوالات و پاسخ های بیشتر در درک تصاویر پیشرفته