برای استخراج تمام حاشیهنویسیهای شی از پاسخ API در زمینه هوش مصنوعی – Google Vision API – درک پیشرفته تصاویر – تشخیص اشیا، میتوانید از فرمت پاسخ ارائهشده توسط API استفاده کنید که شامل فهرستی از اشیاء شناسایی شده به همراه موارد مربوط به آنها است. جعبه های محدود و امتیازات اعتماد به نفس. با تجزیه این پاسخ، می توانید حاشیه نویسی شی مورد نظر را استخراج کنید.
پاسخ API معمولاً شامل یک شی JSON است که شامل فیلدهای مختلف، از جمله فیلد "localizedObjectAnnotations" است که شامل اشیاء شناسایی شده است. هر حاشیه نویسی شی شامل اطلاعاتی مانند نام شی، مختصات جعبه مرزی آن، و امتیاز اطمینان است که نشان دهنده اطمینان API در تشخیص است.
برای استخراج حاشیه نویسی شی، می توانید این مراحل را دنبال کنید:
1. تجزیه پاسخ API: با تجزیه پاسخ JSON دریافت شده از API شروع کنید. این را می توان با استفاده از کتابخانه تجزیه JSON یا توابع داخلی ارائه شده توسط زبان برنامه نویسی شما انجام داد.
2. دسترسی به فیلد "localizedObjectAnnotations": پس از تجزیه پاسخ، به فیلد "localizedObjectAnnotations" که حاوی اشیاء شناسایی شده است، دسترسی پیدا کنید. این فیلد معمولاً آرایه ای از حاشیه نویسی شی است.
3. تکرار از طریق حاشیه نویسی شی: تکرار از طریق حاشیه نویسی شی در آرایه. هر حاشیه نویسی نشان دهنده یک شی شناسایی شده در تصویر است.
4. استخراج اطلاعات مربوطه: اطلاعات مربوطه را از هر حاشیه نویسی شی استخراج کنید، مانند نام شی، مختصات جعبه مرزی و امتیاز اطمینان. این جزئیات را می توان به عنوان فیلدهای جداگانه در هر حاشیه نویسی شی مورد دسترسی قرار داد.
5. ذخیره یا پردازش اطلاعات استخراج شده: بسته به نیاز خود، می توانید اطلاعات استخراج شده را در یک ساختار داده ذخیره کنید یا آن را برای تجزیه و تحلیل یا اهداف دیگر پردازش کنید. برای مثال، ممکن است بخواهید نام اشیا و مختصات جعبه مرزی مربوطه آنها را در یک پایگاه داده ذخیره کنید یا از آنها برای کارهای بیشتر درک تصویر استفاده کنید.
در اینجا یک مثال ساده برای نشان دادن فرآیند استخراج آورده شده است:
python import json # Assume 'response' contains the API response in JSON format response =
{
"localizedObjectAnnotations": [
{
"mid": "/m/01g317"،
"نام": "گربه"،
"امتیاز": 0.89271355،
"boundingPoly": {
"normalized Vertices": [
{"x": 0.1234، "y": 0.5678}،
{"x": 0.5678، "y": 0.1234}
] }
},
{
"mid": "/m/04rky"،
"نام": "سگ"،
"امتیاز": 0.8132468،
"boundingPoly": {
"normalized Vertices": [
{"x": 0.4321، "y": 0.8765}،
{"x": 0.8765، "y": 0.4321}
] }
}
] }
# Parse the API response response_data = json.loads(response) # Access the object annotations annotations = response_data['localizedObjectAnnotations'] # Iterate through the object annotations for annotation in annotations: # Extract relevant information object_name = annotation['name'] bounding_box = annotation['boundingPoly']['normalizedVertices'] confidence = annotation['score'] # Process or store the extracted information print(f"Object: {object_name}, Bounding Box: {bounding_box}, Confidence: {confidence}") # Output: # Object: cat, Bounding Box: [{'x': 0.1234, 'y': 0.5678}, {'x': 0.5678, 'y': 0.1234}], Confidence: 0.89271355 # Object: dog, Bounding Box: [{'x': 0.4321, 'y': 0.8765}, {'x': 0.8765, 'y': 0.4321}], Confidence: 0.8132468
در این مثال، ما پاسخ JSON را شامل دو شی شناسایی شده فرض میکنیم: یک گربه و یک سگ. کد پاسخ را تجزیه می کند، به فیلد "localizedObjectAnnotations" دسترسی پیدا می کند، از طریق هر حاشیه نویسی شی تکرار می شود، و نام شی، مختصات جعبه مرزی و امتیاز اطمینان را استخراج می کند. در نهایت، اطلاعات استخراج شده چاپ می شود، اما می توانید کد را مطابق با نیازهای خاص خود تغییر دهید.
با دنبال کردن این مراحل، می توانید به طور موثر تمام حاشیه نویسی های شی را از پاسخ API در زمینه هوش مصنوعی - Google Vision API - درک پیشرفته تصاویر - تشخیص اشیا استخراج کنید.
سایر پرسش ها و پاسخ های اخیر در مورد درک تصاویر پیشرفته:
- چند دسته از پیش تعریف شده برای تشخیص شی در Google Vision API چیست؟
- روش توصیه شده برای استفاده از ویژگی تشخیص جستجوی ایمن در ترکیب با سایر تکنیک های تعدیل چیست؟
- چگونه می توانیم به مقادیر احتمال برای هر دسته در حاشیه نویسی جستجوی ایمن دسترسی داشته باشیم و آن را نمایش دهیم؟
- چگونه می توانیم حاشیه نویسی جستجوی ایمن را با استفاده از Google Vision API در پایتون بدست آوریم؟
- پنج دسته شامل ویژگی تشخیص جستجوی ایمن چیست؟
- ویژگی جستجوی ایمن Google Vision API چگونه محتوای صریح درون تصاویر را تشخیص میدهد؟
- چگونه می توانیم با استفاده از کتابخانه بالش، اشیاء شناسایی شده در یک تصویر را به صورت بصری شناسایی و برجسته کنیم؟
- چگونه می توانیم اطلاعات شی استخراج شده را در قالب جدولی با استفاده از قاب داده پانداها سازماندهی کنیم؟
- از چه کتابخانه ها و زبان برنامه نویسی برای نشان دادن عملکرد Google Vision API استفاده می شود؟
- Google Vision API چگونه تشخیص و محلی سازی اشیاء را در تصاویر انجام می دهد؟
مشاهده سوالات و پاسخ های بیشتر در درک تصاویر پیشرفته