ios - अलास्सेट प्रस्तुतिकरण में एक्सएमपी-मेटाडाटा का व्याख्या करें



ios6 alassetslibrary (1)

ALAssetRepresentation* representation = [[self assetAtIndex:index] defaultRepresentation];

// Create a buffer to hold the data for the asset's image
uint8_t *buffer = (Byte*)malloc(representation.size); // Copy the data from the asset into the buffer
NSUInteger length = [representation getBytes:buffer fromOffset: 0.0  length:representation.size error:nil];

if (length==0)
    return nil;

// Convert the buffer into a NSData object, and free the buffer after.

NSData *adata = [[NSData alloc] initWithBytesNoCopy:buffer length:representation.size freeWhenDone:YES];

// Set up a dictionary with a UTI hint. The UTI hint identifies the type
// of image we are dealing with (that is, a jpeg, png, or a possible
// RAW file).

// Specify the source hint.

NSDictionary* sourceOptionsDict = [NSDictionary dictionaryWithObjectsAndKeys:

(id)[representation UTI], kCGImageSourceTypeIdentifierHint, nil];

// Create a CGImageSource with the NSData. A image source can
// contain x number of thumbnails and full images.

CGImageSourceRef sourceRef = CGImageSourceCreateWithData((CFDataRef) adata,  (CFDictionaryRef) sourceOptionsDict);

[adata release];

CFDictionaryRef imagePropertiesDictionary;

// Get a copy of the image properties from the CGImageSourceRef.

imagePropertiesDictionary = CGImageSourceCopyPropertiesAtIndex(sourceRef,0, NULL);

CFNumberRef imageWidth = (CFNumberRef)CFDictionaryGetValue(imagePropertiesDictionary, kCGImagePropertyPixelWidth);

CFNumberRef imageHeight = (CFNumberRef)CFDictionaryGetValue(imagePropertiesDictionary, kCGImagePropertyPixelHeight);

int w = 0;

int h = 0;

CFNumberGetValue(imageWidth, kCFNumberIntType, &w);

CFNumberGetValue(imageHeight, kCFNumberIntType, &h);

// Clean up memory

CFRelease(imagePropertiesDictionary);

जब कोई उपयोगकर्ता आईओएस पर अंतर्निहित Photos.app में फ़ोटो में कुछ बदलाव (क्रॉपिंग, रेड-आई रिमूशन , ...) बनाता है, तो संबंधित ALAssetRepresentation द्वारा लौटाए गए fullResolutionImage इमेज पर परिवर्तन लागू नहीं होते हैं।

हालांकि, परिवर्तन thumbnail लागू होते हैं और ALAssetRepresentation को ALAssetRepresentation द्वारा लौटाया जाता है। इसके अलावा, लागू परिवर्तनों के बारे में जानकारी कुंजी @"AdjustmentXMP" माध्यम से ALAssetRepresentation के मेटाडेटा डिक्शनरी में पाई जा सकती है।

मैं इन परिवर्तनों को fullResolutionImage में संरक्षित करने के लिए fullResolutionImage स्वयं लागू करना fullResolutionImage हूं। मुझे पता चला है कि CIFilter + CIFilter पर CIFilter filterArrayFromSerializedXMP: inputImageExtent:error: इस एक्सएमपी-मेटाडाटा को CIFilter सरणी में परिवर्तित कर सकती है:

ALAssetRepresentation *rep; 
NSString *xmpString = rep.metadata[@"AdjustmentXMP"];
NSData *xmpData = [xmpString dataUsingEncoding:NSUTF8StringEncoding];

CIImage *image = [CIImage imageWithCGImage:rep.fullResolutionImage];

NSError *error = nil;
NSArray *filterArray = [CIFilter filterArrayFromSerializedXMP:xmpData 
                                             inputImageExtent:image.extent 
                                                        error:&error];
if (error) {
     NSLog(@"Error during CIFilter creation: %@", [error localizedDescription]);
}

CIContext *context = [CIContext contextWithOptions:nil];

for (CIFilter *filter in filterArray) {
     [filter setValue:image forKey:kCIInputImageKey];
     image = [filter outputImage];
}

हालांकि, यह केवल कुछ फ़िल्टर (क्रॉपिंग, ऑटो-एन्हांसमेंट) के लिए काम करता है लेकिन लाल-आंख हटाने जैसे अन्य लोगों के लिए नहीं। इन मामलों में, CIFilter पास कोई प्रभाव नहीं पड़ता है। इसलिए, मेरे प्रश्न:

  • क्या कोई लाल-आंख हटाने वाले CIFilter बनाने के तरीके से CIFilter ? (Photos.app के साथ एक तरह से संगत। कुंजी kCIImageAutoAdjustRedEye साथ फ़िल्टर पर्याप्त नहीं है। उदाहरण के लिए, यह आंखों की स्थिति के लिए पैरामीटर नहीं लेता है।)
  • आईओएस 5 के तहत इन फिल्टर को उत्पन्न और लागू करने की संभावना है?