Loading presentation...

Present Remotely

Send the link below via email or IM

Copy

Present to your audience

Start remote presentation

  • Invited audience members will follow you as you navigate and present
  • People invited to a presentation do not need a Prezi account
  • This link expires 10 minutes after you close the presentation
  • A maximum of 30 users can follow your presentation
  • Learn more about this feature in our knowledge base article

Do you really want to delete this prezi?

Neither you, nor the coeditors you shared it with will be able to recover it again.

DeleteCancel

Make your likes visible on Facebook?

Connect your Facebook account to Prezi and let your likes appear on your timeline.
You can change this under Settings & Account at any time.

No, thanks

Aula 3 - Paradigma dos 4 universos.

Disciplina de Ferramentas de Manipulação de Imagem.
by

Suliane Carneiro

on 6 March 2013

Comments (0)

Please log in to add your comment.

Report abuse

Transcript of Aula 3 - Paradigma dos 4 universos.

O paradigma dos 4 universos O universo Físico, onde estão os objetos do mundo real. O universos de Implementação é onde é feita a codificação do sinal discretizado na
memória do computador através de uma estrutura de dados. O universo Matemático, onde formulamos descrições abstratas desses objetos. O universo de Representação vai permitir trazer essas descrições abstratas para o mundo digital, e é onde se dará a discretização dos sinais contínuos. Assim, para estudar um determinado fenômeno, ou objeto da natureza, no computador, nós
precisamos associá-lo a um modelo matemático e então encontrar uma representação discreta para
esse modelo que pode ser implementada no computador. A codificação dos dados pode ser decodificada e depois reconstruída para podermos voltar
com o fenômeno estudado para o mundo real. A imagem fotográfica é obtida do mundo real através de câmeras ou sensores que captam
luz. A imagem capturada em um filme fotográfico representa bem a imagem real que queremos
transportar para o computador. Repare que o filme define um plano limitado por um retângulo, onde
cada posição nesse plano contém a informação de cor relativa aquela posição, ou seja, a imagem
neste caso é um sinal de cor 2D contínuo, onde o domínio é o plano e o contradomínio é o espaço
de cor. A discretização disso é muito simples, segue os mesmos princípios da discretização de sinais
2D contínuos quaisquer. A imagem contínua é modelada matematicamente pela função: onde x e y são números reais, limitados ao intervalo de 0 a X, e de 0 a Y, respectivamente.
Colocando isso em um gráfico: A imagem digital é obtida a partir de uma amostragem e de uma quantização dessa função, como já foi visto, e pode ser representada pela mesma função, só que neste caso, x e y são números inteiros. Uma vez amostrado o plano temos uma matriz de valores que representam a cor. Cada elemento dessa matriz é chamado de Pixel (abreviação de Picture Element). Mas, ainda não falamos nada sobre a quantização da cor. Na realidade cor também é um fenômeno físico para o qual precisamos fazer os mesmos passo que fizemos para o plano da imagem. Precisamos descobrir a definição de cor, suas representações e como trazê-las para o computador. Por enquanto, vamos deixar essas discussões de lado e atacar a questão de amostragem do plano 2D onde as cores estão distribuídas. Ao ser digitalizada a imagem assume um tamanho adimensional, em pixels. Mas, pode-se conhecer uma medida de qualidade da amostragem, conhecendo-se a razão entre o número de pixels
obtido e o tamanho da imagem real no filme ou equivalente. Resolução espacial A isso chama-se de Resolução. Em geral, é medida em pontos por polegada ou DPI (dots per inch), mas pode ser também em pontos por centímetro ou DPC, ou ainda em qualquer outra unidade equivalente. Também é simples estabelecer a relação: número de pixels = resolução x tamanho real. Para entender melhor isso, pode-se fazer a seguinte questão: Dado o tamanho da imagem
(em cm, in, etc...), quantos valores discretos vão ser tomados? Escolhendo-se a resolução a resposta
é dada pela equação acima. Veja algumas resoluções típicas:
Monitor Comum - 72 DPI;
Scanner - 1200 DPI;
Impressora Jato de Tinta Popular - 600 DPI. Como temos duas dimensões, podemos definir uma resolução horizontal e uma vertical.
Quando nada se diz a respeito disso, quer dizer que são iguais (a grande maioria das vezes), caso
contrário são necessários dois valores. Uma vez que são diferentes, a razão de aspectos da área entre um pixel e outro não é 1:1 e portanto não é um quadrado. Isso gera algumas confusões, pois no
monitor a razão é 1:1 e esta imagem quando visualizada aparecerá deformada. Quando duas imagens com tamanhos reais iguais são capturadas com resoluções diferentes, naturalmente terão número de pixels diferentes e na tela aparecerão com tamanhos diferentes. Na figura a seguir mostramos um círculo amostrado em duas resoluções, mas exibido no seu tamanho original. Quando duas imagens de tamanhos reais diferentes são capturadas com resoluções
diferentes de tal forma que gerem imagens digitais com o mesmo número de pixels, quando
visualizadas no monitor aparecerão com o mesmo tamanho na tela. No exemplo a seguir mostramos
as imagens proporcionais ao seu tamanho original. Quando queremos realizar alguma medida sobre os objetos contidos na imagem surge um outro parâmetro, a escala. Pode-se defini-la matematicamente idêntica a resolução só que as unidades serão as mais variadas possíveis. Caso não seja conhecida, é fácil de se obtê-la. Mede-se algumas distâncias reais na imagem digital e calcula-se a média das razões entre distância e número de pixels, obtendo-se a escala. A partir desse momento outras distâncias podem ser feitas na imagem com qualidade aceitável. É claro que se os objetos não estejam em um mesmo plano, as medidas são muito mais complexas e envolvem transformações projetivas. topologia de um pixel As amostras do plano são pontuais e adimensionais, mas os dispositivos para reconstrução não deixam um espaço entre uma amostra e outra. Assim, muitas vezes iremos representar o pixel, não como um ponto, mas como um quadrado preenchido com a cor do pixel, que está no seu centro.
Por sinal, o exemplo anterior já usa essa representação. Como vimos, pixels são normalmente quadrados, gerando uma grade (grid) regular devido à amostragem uniformemente espaçada. Um problema que aparece nesse momento é: Quais são os vizinhos de um determinado pixel? Essa pergunta é fundamental para algoritmos de preenchimento de áreas e algoritmos de determinação de continuidade de objetos na imagem. Nesta grade regular podemos definir dois tipos de vizinhança: 4 conectada (onde os vizinhos são eqüidistantes) ou 8 conectada (onde nem todos são eqüidistantes, os vizinhos na diagonal são mais distantes que os vizinhos nas laterais). Normalmente usa-se uma combinação das duas vizinhanças, definindo 4 conectada para os objetos e 8 conectada para o fundo. Para criar uma vizinhança onde todos os vizinhos fossem eqüidistantes e só houvesse uma
definição, temos que mudar a grade regular para uma grade hexagonal. São poucos algoritmos
implementados com essa vizinhança, pois como a imagem está em geral amostrada em uma grade
regular, deve-se converte-la para a grade hexagonal, realizar o processamento e converte-la de volta
para a grade regular. Já que estamos falando da grade não poderíamos deixar de falar sobre a origem do sistema
de coordenadas. Localizada no canto superior esquerdo na grande maioria dos sistemas de
processamento de imagem, pode na realidade ser posicionada em qualquer lugar da imagem, até
mesmo fora dela. Essa localização preferencial para o canto superior esquerdo, com eixo y invertido em relação ao padrão da matemática, é herdada dos próprios dispositivos de visualização, onde a primeira linha a ser redesenhada na tela é a do topo da tela, que segue o padrão de escrita ocidental, da esquerda para a direita e de cima para baixo. Mas pode ser orientado de várias formas: Quando falamos em amostragem imediatamente nós temos o problema inverso: Como
reconstruir? Ou melhor podemos fazer a pergunta: Dados os valores discretos, qual a função contínua que passa por eles? Quando estamos no ambiente computacional, também estamos
querendo resolver um outro problema que é o de re-amostragem. Isto é, reconstruir e amostrar novamente com outra resolução ou com outra grade regular ou não. Em matemática, reconstrução é sinônimo de interpolação. O uso de interpolação permite que dada uma seqüência de amostras possamos obter o valor da função em uma posição qualquer do
eixo. A técnica mais trivial é simplesmente escolher a amostra mais próxima da posição desejada e tomar o seu valor como valor desta posição. Esta técnica é usada muito para a visualização da imagem em maior ou menor proximidade, ou melhor, fazendo Zoom, simulando uma aproximação ou afastamento da imagem em relação ao observador. Uma outra técnica muito utilizada para fazer reconstrução é a de interpolação linear (bilinear no caso de 2 dimensões). Essa técnica calcula uma média ponderada das amostras mais próximas da posição desejada de acordo com a distância à mesma. Pela figura a seguir podemos perceber que a interpolação linear irá obter resultados bem melhores que a de vizinho mais próximo. Mas fica claro que podemos obter resultados ainda melhores usando curvas em vez de retas. Uma técnica com esse enfoque que se tornou popular é a
interpolação bi-cúbica, que é semelhante a interpolação linear, mas em vez de usar retas, usa funções cúbicas (x^3). Esta imagem mostra o efeito de uma mudança no tamanho de uma determinada imagem,
usando-se a técnica de interpolação linear e a técnica do vizinho mais próximo. Todas as técnicas de deformação (warping) da imagem são implementados usando interpolação. Até mesmo alguns movimentos rígidos, como as rotações diferentes de 90º, utilizam interpolação, por que no fundo estamos reconstruindo, deformando o modelo contínuo e re-amostrando. Isto também ocorre nas transformações contínuas de uma imagem em outra
(morphing) que são feitas como uma composição de uma deformação do R2 (warping) combinada com uma composição de cores (blending). Um fenômeno muito comum em amostragem é o fenômeno de aliasing.
Ele acontece quando realizamos uma amostragem muito pobre da função contínua original e quando vamos reconstrui-la obtemos resultados inconsistentes com o esperado. Matematicamente podemos dizer que a freqüência de amostragem foi aproximadamente inferior à maior freqüência de variação da função contínua. aliasing Para resolver o problema de aliasing temos duas soluções, aumentar a taxa de amostragem,
que em geral nem sempre é possível, ou suavizar a função contínua para que ela não tenha
freqüências mais altas que a nossa taxa de amostragem. A imagem a seguir mostra o efeito do aliasing espacial em uma imagem que foi amostrada
em alta e baixa resolução. Traçando-se uma linha sobre a imagem podemos compreender melhor o
conceito de freqüência espacial e o respectivo efeito de aliasing no resultado. Aliasing também aparece quando estamos reamostrando com menos pontos uma função já
discretizada. Neste momento podemos realizar uma média ponderada dos valores que estão sendo descartados. Podemos ver o fenômeno de aliasing em outras situações como ao filmarmos uma roda de
um carro rodando mais rápido do que a câmera é capaz de capturar, neste caso vemos a roda girar
para trás, justamente por que a taxa de amostragem temporal está muito baixa. Da mesma forma que o aliasing espacial, aliasing temporal ocorrerá sempre que o objeto se mover repetitivamente mais rápido que a taxa de amostragem temporal ou número de quadros por segundo. Um problema muito comum, que é uma forma de aliasing, aparece quando sobrepomos
dois padrões periódicos que interagem não linearmente produzindo um terçeiro padrão. Esse novo padrão é chamado de padrão de Moiré. Em Computação Gráfica aliasing é muito comum durante o desenho de primitivas. A
memória de vídeo da placa gráfica pode ser vista como uma imagem e uma primitiva a ser
desenhada como um objeto real a ser amostrado. Como as primitivas possuem bordas abruptas (alta
freqüência) aliasing aparece naturalmente. A solução é suavisar as bordas durante o desenho da
primitiva. Também podemos evitar aliasing no processamento de cenas sintéticas que faz uso do
algoritmos de tracado de raios (ray tracing). Neste caso para cada pixel da imagem a ser gerada,
criamos vários sub-pixels, ou super-amostramos a cena, para depois calcularmos uma média desses
valores que será por fim atribuída ao pixel. Cor Quando falamos de cor de um ponto de vista físico, na realidade estamos falando de Luz.
A luz percorre o espaço, ora se comportando como uma onda, ora como uma partícula, isso
caracteriza a natureza dual da luz. Para estudarmos cor iremos observar o comportamento da luz
como uma onda. Podemos dizer que neste caso a luz é uma radiação eletromagnética que possui
uma certa “energia” para cada comprimento de onda. A função que informa o valor dessa “energia”
é chamada de Distribuição Espectral de Potência. Na figura acima podemos ver um exemplo de distribuição, e a diferença entre uma cor
monocromática ideal (apenas 1 comprimento de onda) e uma cor monocromática real (onde existe
um comprimento de onda predominante, mas não é único). Como a luz pode ser caracterizada pela sua distribuição espectral, ela pode então ser modelada matematicamente por uma função unidimensional que depende do comprimento de onda.
Mas nós estamos interessados em cor, e neste caso estamos falando da sensação humana de
diferentes espectros de luz. Ou seja, a definição de cor neste caso envolve uma característica
perceptual da espécie humana. Até porque é sabido que cada espécie possui uma percepção de cor
diferente. Consequentemente precisamos entender um pouco mais sobre como o olho humano
percebe cor e envia essa informação para o cérebro. (A ciência que estuda cor do ponto de vista
físico é chamada de Colorimetria. A ciência que estuda cor do ponto de vista perceptual é chamada
de Fotometria.) Nós percebemos luz entre aproximadamente 380nm e 780nm. Luz de 380nm até 500nm
parece azul, de 500nm a 600nm parece verde, e de 600nm a 780nm parece vermelho. É claro que o resto do espectro eletromagnético é ocupado com outros tipos de ondas, que
não produzem sensações visuais. A figura a seguir mostra algumas regiões conhecidas e/ou
utilizadas por nós. A cor monocromática ideal é também chamada de cor espectral, já que possui apenas um
único comprimento de onda. A cor púrpura não é uma cor espectral, ela contém comprimentos de
onda bem próximos a 380nm e outros bem próximos a 780nm. Veremos esse fenômeno da cor
púrpura novamente mais adiante. A luz branca possui todos os comprimentos de onda com energia máxima. A luz branca ideal seria um espectro com uma linha horizontal. No nosso olho existem dois tipos de sensores, cones e bastonetes. Bastonetes são sensíveis
a todos os comprimentos de onda ponderadamente e por isso não são capazes de distinguir cor, possuem melhor resposta à luz de baixa intensidade (visão noturna). Já os Cones são menos sensíveis à luz (visão direta), mas permitem a distinção de cores porque existem três tipos de cones,
os sensíveis a comprimentos de onda próximos a 450nm, a 550nm, e a 600nm (nm=10^-9m). Isso
caracteriza o processo de discriminação de cor do olho, chamado de tricromacidade. A distribuição de cones e bastonetes ao longo da retina é responsável por diversos aspectos
da nossa visão. Procuraremos nos concentrar apenas naqueles que nos interessam no momento. A informação de cor é enviada para o cérebro em dois canais, um que codifica a
intensidade da luz e outro que codifica as diferenças de cor. A informação provinda dos bastonetes é chamada de luminância e a informação provinda dos cones é combinada em um único canal e chamada de crominância. Isso mostra que o sinal de luminância é muito importante para distinguirmos objetos na imagem nos dando acuidade espacial. Assim como, mostra que a informação de crominância pode ser bastante compactada. O fato de termos 3 sensores para cor, esta informação ser combinada em um única e
termos um sinal separado para informação de intensidade são fatos muito utilizados na captura,
representação e codificação do sinal de cor. Processos de Formação de Cor tarefa
Full transcript