Последующие действия: определение точного «расстояния» между цветами

Исходный вопрос

Я ищу функцию, которая пытается количественно определить, насколько «далеки» (или различны) два цвета. Этот вопрос состоит из двух частей:

  1. Какое цветовое пространство лучше всего отражает человеческое зрение?
  2. Какая метрика расстояния в этом пространстве лучше всего отражает человеческое зрение (евклидово?)

Ответов (7)

Решение

Преобразуйте в La * b * (он же просто «Lab», вы также увидите ссылку на «CIELAB»). Хорошим быстрым способом измерения разницы в цвете является

(L1-L2) ^ 2 + (a1-a2) ^ 2 + (b1-b2) ^ 2

У специалистов по цвету есть другие, более тонкие меры, которые могут не стоить беспокойства, в зависимости от точности, необходимой для того, что вы делаете.

Значения a и b представляют противоположные цвета аналогично тому, как работают конусы, и могут быть отрицательными или положительными. Нейтральные цвета - белый, серый есть a=0, b=0 . L Это яркость определяется определенным образом, от нуля (чистой темноты) до любой другой .

Грубое объяснение: >> Учитывая цвет, наши глаза различают два широких диапазона длин волн - синий и более длинные волны. а затем, благодаря более поздней генетической мутации, более длинноволновые колбочки раздвоились на две части, различая для нас красный и зеленый.

Кстати, для вашей карьеры будет здорово подняться над коллегами из цветных пещерных людей, которые знают только «RGB» или «CMYK», которые отлично подходят для устройств, но отстойны для серьезной работы с восприятием. Я работал с учеными, занимающимися визуализацией, которые ничего не знали об этом!

Чтобы получить больше удовольствия от чтения теории разницы в цвете, попробуйте:

Подробнее о Лаборатории по адресу http://en.kioskea.net/video/cie-lab.php3. В настоящее время я не могу найти некрасивую страницу, на которой действительно были формулы преобразования, но я уверен, что кто-то отредактирует это. ответ включить один.

Как человек, страдающий дальтонизмом, я считаю, что было бы хорошо попытаться добавить больше разделения, чем нормальное зрение. Наиболее распространенной формой дальтонизма является дефицит красного / зеленого цветов. Это не значит, что вы не можете видеть красный или зеленый, это означает, что вам труднее увидеть и труднее увидеть различия. Так что требуется большее разделение, прежде чем дальтоник сможет заметить разницу.

поскольку ссылка cmetric.htm выше для меня не удалась, как и многие другие реализации для цветового расстояния, которые я нашел (после очень долгого путешествия ..), как вычислить лучшее цветовое расстояние, и .. наиболее точный с научной точки зрения: deltaE и от 2 Значения RGB (!) С использованием OpenCV:

Для этого потребовалось 3 преобразования цветового пространства + некоторое преобразование кода из javascript ( http://svn.int64.org/viewvc/int64/colors/colors.js ) в C++

И, наконец, код (кажется, работает прямо из коробки, надеюсь, никто не найдет там серьезной ошибки ... но после ряда тестов все в порядке)

#include <opencv2/core/core.hpp>
#include <opencv2/imgproc/imgproc.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/photo/photo.hpp>
#include <math.h>

using namespace cv;
using namespace std;

#define REF_X 95.047; // Observer= 2°, Illuminant= D65
#define REF_Y 100.000;
#define REF_Z 108.883;

void bgr2xyz( const Vec3b& BGR, Vec3d& XYZ );
void xyz2lab( const Vec3d& XYZ, Vec3d& Lab );
void lab2lch( const Vec3d& Lab, Vec3d& LCH );
double deltaE2000( const Vec3b& bgr1, const Vec3b& bgr2 );
double deltaE2000( const Vec3d& lch1, const Vec3d& lch2 );


void bgr2xyz( const Vec3b& BGR, Vec3d& XYZ )
{
    double r = (double)BGR[2] / 255.0;
    double g = (double)BGR[1] / 255.0;
    double b = (double)BGR[0] / 255.0;
    if( r > 0.04045 )
        r = pow( ( r + 0.055 ) / 1.055, 2.4 );
    else
        r = r / 12.92;
    if( g > 0.04045 )
        g = pow( ( g + 0.055 ) / 1.055, 2.4 );
    else
        g = g / 12.92;
    if( b > 0.04045 )
        b = pow( ( b + 0.055 ) / 1.055, 2.4 );
    else
        b = b / 12.92;
    r *= 100.0;
    g *= 100.0;
    b *= 100.0;
    XYZ[0] = r * 0.4124 + g * 0.3576 + b * 0.1805;
    XYZ[1] = r * 0.2126 + g * 0.7152 + b * 0.0722;
    XYZ[2] = r * 0.0193 + g * 0.1192 + b * 0.9505;
}

void xyz2lab( const Vec3d& XYZ, Vec3d& Lab )
{
    double x = XYZ[0] / REF_X;
    double y = XYZ[1] / REF_X;
    double z = XYZ[2] / REF_X;
    if( x > 0.008856 )
        x = pow( x , .3333333333 );
    else
        x = ( 7.787 * x ) + ( 16.0 / 116.0 );
    if( y > 0.008856 )
        y = pow( y , .3333333333 );
    else
        y = ( 7.787 * y ) + ( 16.0 / 116.0 );
    if( z > 0.008856 )
        z = pow( z , .3333333333 );
    else
        z = ( 7.787 * z ) + ( 16.0 / 116.0 );
    Lab[0] = ( 116.0 * y ) - 16.0;
    Lab[1] = 500.0 * ( x - y );
    Lab[2] = 200.0 * ( y - z );
}

void lab2lch( const Vec3d& Lab, Vec3d& LCH )
{
    LCH[0] = Lab[0];
    LCH[1] = sqrt( ( Lab[1] * Lab[1] ) + ( Lab[2] * Lab[2] ) );
    LCH[2] = atan2( Lab[2], Lab[1] );
}

double deltaE2000( const Vec3b& bgr1, const Vec3b& bgr2 )
{
    Vec3d xyz1, xyz2, lab1, lab2, lch1, lch2;
    bgr2xyz( bgr1, xyz1 );
    bgr2xyz( bgr2, xyz2 );
    xyz2lab( xyz1, lab1 );
    xyz2lab( xyz2, lab2 );
    lab2lch( lab1, lch1 );
    lab2lch( lab2, lch2 );
    return deltaE2000( lch1, lch2 );
}

double deltaE2000( const Vec3d& lch1, const Vec3d& lch2 )
{
    double avg_L = ( lch1[0] + lch2[0] ) * 0.5;
    double delta_L = lch2[0] - lch1[0];
    double avg_C = ( lch1[1] + lch2[1] ) * 0.5;
    double delta_C = lch1[1] - lch2[1];
    double avg_H = ( lch1[2] + lch2[2] ) * 0.5;
    if( fabs( lch1[2] - lch2[2] ) > CV_PI )
        avg_H += CV_PI;
    double delta_H = lch2[2] - lch1[2];
    if( fabs( delta_H ) > CV_PI )
    {
        if( lch2[2] <= lch1[2] )
            delta_H += CV_PI * 2.0;
        else
            delta_H -= CV_PI * 2.0;
    }

    delta_H = sqrt( lch1[1] * lch2[1] ) * sin( delta_H ) * 2.0;
    double T = 1.0 -
            0.17 * cos( avg_H - CV_PI / 6.0 ) +
            0.24 * cos( avg_H * 2.0 ) +
            0.32 * cos( avg_H * 3.0 + CV_PI / 30.0 ) -
            0.20 * cos( avg_H * 4.0 - CV_PI * 7.0 / 20.0 );
    double SL = avg_L - 50.0;
    SL *= SL;
    SL = SL * 0.015 / sqrt( SL + 20.0 ) + 1.0;
    double SC = avg_C * 0.045 + 1.0;
    double SH = avg_C * T * 0.015 + 1.0;
    double delta_Theta = avg_H / 25.0 - CV_PI * 11.0 / 180.0;
    delta_Theta = exp( delta_Theta * -delta_Theta ) * ( CV_PI / 6.0 );
    double RT = pow( avg_C, 7.0 );
    RT = sqrt( RT / ( RT + 6103515625.0 ) ) * sin( delta_Theta ) * -2.0; // 6103515625 = 25^7
    delta_L /= SL;
    delta_C /= SC;
    delta_H /= SH;
    return sqrt( delta_L * delta_L + delta_C * delta_C + delta_H * delta_H + RT * delta_C * delta_H );
}

Надеюсь, это кому-то поможет :)

HSL и HSV лучше подходят для восприятия цвета людьми. Согласно Википедии :

Иногда при работе с художественными материалами, оцифрованными изображениями или другими носителями предпочтительнее использовать цветовую модель HSV или HSL по сравнению с альтернативными моделями, такими как RGB или CMYK, из-за различий в способах, которыми модели имитируют восприятие цвета людьми. RGB и CMYK - это аддитивные и вычитающие модели, соответственно, моделирующие способ объединения основных цветов или пигментов (соответственно) для образования новых цветов при смешивании.

Графическое изображение ВПГ

Что ж, в качестве первой точки вызова я бы сказал, что общие показатели HSV (оттенок, насыщенность и значение) или HSL лучше представляют то, как люди воспринимают цвет, чем, скажем, RGB или CYMK. См. HSL, HSV в Википедии .

Я наивно полагаю, что построил бы точки в пространстве HSL для двух цветов и вычислил бы величину вектора разницы. Однако это будет означать, что ярко-желтый и ярко-зеленый будут считаться такими же разными, как зеленый и темно-зеленый. Но многие считают красный и розовый двумя разными цветами.

Более того, векторы разности в одном и том же направлении в этом пространстве параметров не равны. Например, человеческий глаз улавливает зеленый цвет намного лучше, чем другие цвета. Может показаться, что изменение оттенка от зеленого на ту же величину, что и переход от красного. Также сдвиг насыщенности от небольшого количества до нуля - это разница между серым и розовым, в другом месте сдвиг будет разницей между двумя оттенками красного.

С точки зрения программиста, вам нужно будет построить векторы разности, но модифицированные матрицей пропорциональности, которая соответствующим образом отрегулирует длины в различных областях пространства HSL - это было бы довольно произвольно и основывалось бы на различных идеях теории цвета, но быть настроенным довольно произвольно, в зависимости от того, к чему вы хотите применить это.

Более того, вы могли увидеть, делал ли кто-нибудь подобное в Интернете ...

Простейшие расстояния , конечно , будет просто рассмотреть цвета , как 3D - векторы , происходящие из того же происхождения, и принимая расстояние между их конечными точками.

Если вам нужно учитывать такие факторы, что зеленый цвет более заметен при оценке интенсивности, вы можете взвесить значения.

ImageMagic предоставляет следующие масштабы:

  • красный: 0,3
  • зеленый: 0,6
  • синий: 0,1

Конечно, подобные значения будут иметь смысл только по отношению к другим значениям для других цветов, а не как что-то значимое для людей, поэтому все, что вы могли бы использовать для этих значений, - это упорядочивание по сходству.

В статье Википедии о цветовых различиях перечислены несколько цветовых пространств и метрики расстояния, разработанные для согласования с человеческим восприятием цветовых расстояний.