segunda-feira, 28 de novembro de 2011

Cinema e a tecnologia 3D:

saiba como funciona, os sistemas disponíneis e alguns prós e contras de cada um
Desde invenção do cinematógrafo pelos irmãos Lumière, os filmes têm aumentado cada vez mais a capacidade de imersão dos expectadores. Eles ganharam som, cor e efeitos especiais. Agora é a vez da tecnologia tridimensional (3D). Depois de um primeiro auge na década de 50 com os icônicos óculos de lentes de celofane azul e vermelho, o cinema 3D obteve um desenvolvimento discreto, de desempenho limitado. Com poucos filmes desde a década de 90 até a pouco tempo, quase não se ouvia falar nele.
Fig. 1: Imagem retirada do site: http://www.ecult.com.br/noticias/cinema-3d-na-feira-do-livro-de-pelota .
A cena mudou depois que Avatar, de James Cameron, assumiu o posto de maior bilheteria da história do cinema mundial, com US$ 2,7 bilhões em faturamento. Isso fez com que a indústria de entretenimento investisse pesado nesta tecnologia no cinema, video games, TVs, computadores e até celulares. Este artigo foi feito para o leitor que voltou às salas de cinema para conferir o novo momento do 3D e que, logo após tentar pegar um Smurf no ar ou se desviar do escudo do Capitão América, se perguntou como isso era possível. 


Fig. 2: Pôster promocional do filme Avatar (2009), dirigido por James Cameron. Imagem retirada do site: http://projetoraizdepi.wordpress.com/tag/tv-3d/ .

A tecnologia 3D promove um aspecto de tridimensionalidade a uma cena visual, em outras palavras, uma percepção de profundidade. Como é comum no meio científico, esta tecnologia se baseou em aspectos de sistemas biológicos para ser desenvolvido, neste caso, o sistema visual humano. Nós temos uma visão binocular (estereoscópica), ou seja, enxergamos uma mesma imagem de dois ângulos ligeiramente diferentes e alinhados horizontalmente. O cérebro funde as duas perspectivas e cria uma visão única conseguindo calcular por estimativa as informações de profundidade, distância, posição e tamanho dos objetos. O interessante é que a realidade em três dimensões é uma construção do nosso cérebro: tanto a tela do cinema quanto nossa retina são planos bidimensionais. 

As diferentes técnicas de projeção 3D se baseiam, em maior ou menor grau, neste fenômeno: uma imagem 3D é formada da sobreposição de duas imagens iguais filmadas em ângulos diferentes. Logo, a captação da imagem deve ser feita por duas lentes ao mesmo tempo e que se distanciam entre si cerca de seis centímetros (que é a distância média entre os olhos de uma pessoa). Softwares fazem uma correção de enquadramento em tempo real, o que dá uma impressão mais realista. Uma adaptação menos onerosa é filmar por uma lente que reflete para outra lente que também filma a imagem, que depois é editada (inversão, correção de cor e brilho). Porém este método vem sofrendo críticas porque não traz a sensação real de terceira dimensão. O melhor efeito é conseguido nas animações feitas em computação gráfica, já que tudo é manipulado no computador. A reprodução digital no cinema também é feita, em geral, por dois projetores: um para cada olho. Existem diferentes tecnologias para criar um aspecto em 3D, as quais você conhecerá nas linhas seguintes.

Anáglifo
É um dos métodos mais antigos e você facilmente o reconhece pelo uso daqueles óculos com lentes azuis e vermelhas. A estereoscopia acontecia com uma projeção predominantemente vermelha e outra predominantemente azul (ou verde). A lente azul e a vermelha bloqueiam as cores azuis e vermelhas, respectivamente. A diferença de cores em ângulos diferentes causa o efeito de profundidade quando o cérebro interpreta a cena visual. Esta técnica foi descartada pela indústria cinematográfica, pois não proporciona fidelidade na percepção de cores e se mostra incômoda em exposições muito longas podendo causar dores de cabeça, náusea, tontura e vômito. Como ponto positivo, o anáglifo é de fácil acesso. Neste sistema circulam milhares de vídeos e imagens na internet, assim como são vendidos livros infantis, ou não tão infantis assim (lembra da Larissa Riquelme em uma edição 3D daquela revista do coelhinho?). Os óculos podem ser encontrados facilmente ou você mesmo pode construir um. Clique aqui para um passo-a-passo de como fazer isso.

Fig. 3: Imagem modificada do site: http://resumodigital.com.br/2010/02/como-funciona-tecnologia-3d/ . Clique na imagem para ampliá-la.
  
Polarizado (ou passivo)
Esta é a técnica mais utilizada nas salas de cinema digitais nos dias atuais. A diferença em relação ao anáglifo é que as projeções estereoscópicas não se diferem mais na cor, e sim na polarização. Deste modo, supera-se a distorção de matiz atingindo uma maior fidelidade de cor. No par de óculos 3D, cada lente é polarizada de maneira diferente de modo que filtra apenas ondas de luz alinhadas na mesma direção. Por exemplo, uma lente pode filtrar ondas polarizadas horizontalmente e a outra, ondas polarizadas verticalmente. Este é um tipo de polarização linear, e se você inclinar a cabeça para o lado poderá perceber uma perda do efeito de profundidade. Isso não ocorre em uma polarização circular, uma vez que a orientação não diminui a sensação de tridimensionalidade. As atuais salas de cinema utilizam em sua maioria a polarização circular. Além disso, a tela é desenvolvida para manter a polarização original quando reflete a luz do projetor e para aumentar o brilho, visto que os óculos têm a lente escura.

Fig. 4: Imagem modificada do site: http://resumodigital.com.br/2010/02/como-funciona-tecnologia-3d/ . Clique na imagem para ampliá-la.

Ativo
Outra tecnologia é o 3D Ativo, que está presente na primeira leva dos aparelhos de TV em 3D que utilizam óculos e em algumas salas de cinema. Este modelo oferece a maior nitidez e qualidade das cores entre as tecnologias 3D. A estereoscopia acontece com a alternância muito rápida de imagens iguais em duas angulações diferentes. Um emissor na TV e um sensor em óculos de cristal líquido (LCD) sincronizam via ondas de rádio a apresentação de imagens de modo que cada lente se fecha para uma determinada angulação. Sendo assim cada imagem chega somente a um olho, ao contrário da apresentação simultânea e sobreposta de outras tecnologias. Como o processo é muito rápido, o expectador não percebe isso e quanto maior a freqüência de apresentação, maior o efeito 3D. Diferente dos óculos polarizados, os de LCD ativo de fechamento requerem circuitos e bateria, de modo que são mais caros e nem sempre compatíveis entre os fabricantes. Atualmente os grandes fabricantes de eletroeletrônicos estão disputando a preferência do mercado entre aparelhos que utilizam o sistema ativo e o passivo. Televisores com 3D polarizado andam ganhando espaço. Eles apresentam melhor comodidade (menor cansaço visual, óculos leves e mais confortáveis, liberdade de posição), preços mais acessíveis e resultados de imagem satisfatórios. Por outro lado, a tecnologia do 3D ativo está evoluindo rápido e oferece a melhor qualidade e realismo de imagem. Para maiores informações sobre essa disputa, clique aqui ou aqui.

 Barreira paralaxe (ou autoestereoscópico)
A tecnologia mais recente em 3D inovou em dispensar o uso de óculos e está presente na mais nova geração de TVs 3D, mas ainda é inviável para o cinema. A imagem produzida é entrelaçada simultaneamente. A filtragem é feita por diferentes angulações diretamente na tela, em uma barreira paralaxe, no intuito de que cada olho perceba uma imagem. Esta barreira é uma fina camada de cristal líquido a frente da tela com fendas de onde se projetam duas imagens diferentes, uma para cada olho. Cada olho forma uma imagem de um ângulo diferente. Ao alinhar as duas imagens, o cérebro estima a profundidade. Esta tecnologia ainda está sendo desenvolvida e tem um preço elevado. A imagem sofre um escurecimento e o observador deve estar posicionado bem à frente e perpendicular ao aparelho de TV para que se formem representações tridimensionais que às vezes causam incômodo. Devido à restrição de ângulos de visão, o sistema vem sendo adotado em dispositivos portáveis. O Instituto de Tecnologiade Massachusetts, MIT, vem obtendo resultados satisfatórios em um novo tipo de barreira paralaxe que tem maior ângulo de visão e perspectivas múltiplas; para saber mais clique aqui ou aqui

Fig. 5: Imagem modificada do site: http://resumodigital.com.br/2010/02/como-funciona-tecnologia-3d/ . Clique na imagem para ampliá-la.


Clicando aqui você verá animações para os quatro tipos de tecnologias 3D expostos. 

Não se sabe ao certo qual tecnologia se desenvolverá mais e dominará o mercado. Para uma maior expansão da mídia 3D é preciso solucionar alguns problemas. Os óculos diminuem o brilho percebido e causam desconforto, assim como a barreira que ainda força a vista e limita o posicionamento do observador. Os projetores de cinema, aparelhos de TV e video games ainda têm um preço elevado. Somado a isso, deve-se considerar as diferenças individuais que ditam: 1) preferências por determinados graus de profundidade e 2) o desconforto na visão; essa ausência de padrão não poderá tão cedo ser resolvido pelas tecnologias disponíveis. 

E o mais importante, a tecnologia 3D tem que ser pensada como algo que tenha o que incorporar à experiência do expectador e não ser um mero chamariz mercadológico. Isto tem se observado em alguns lançamentos de filmes que receberam severas críticas, pois foram criados sobre uma plataforma 2D  e adaptados em 3D. A indústria cinematográfica ainda precisa consolidar a cultura de conceber filmes em 3D desde a escolha das cenas e o arranjo de sua fotografia. Mas o clima não é de pessimismo, equipamentos 3D estão ficando cada vez mais economicamente viáveis e melhores. Transmissões utilizando esta tecnologia começam a ser adotada para grandes eventos esportivos e shows, e as Olimpíadas de 2012 em Londres vão ser televisionadas em 3D. Ainda há os otimistas que acreditam na holografia em um futuro não muito distante. Vale esperar o que a tecnologia 3D pode oferecer.

Quer baixar o texto? Clique aqui.

Rui de Moraes Jr.

quarta-feira, 23 de novembro de 2011

Mudança de domínio



Olá para vocês,
hoje mudamos nosso domínio do blog Percepto. Passamos de http://blogpercepto.blogspot.com/ para http://www.blogpercepto.com/. Esta mudança poderá ocasionar algumas falhas temporárias nos próximos dias. Mas em pouco tempo isto estará corrigido.

Caso tenha citado nosso blog em algum lugar, não se preocupe! Os links com o antigo domínio (.blogspot.com) são redirecionados automaticamente para o domínio atual (.com).

Esta mudança foi feita para facilitar a busca de nosso site. Qualquer problema, por favor, entre em contato conosco.

Até mais,
Bruno, Leonardo e Rui.

Fonte da imagem: http://migre.me/6e6ho

sábado, 12 de novembro de 2011

Como a informação sensorial é processada?

Agora você está sentado em frente ao computador lendo este texto. Seus órgãos dos sentidos estão captando diversas informações do ambiente e deixando você a par do que ocorre, mesmo sem você ter consciência disso. Alguns processos ficarão conscientes assim que você precisar.

Esta “consciência” do ambiente começa por dois processos básicos. O primeiro é a Sensação, que é uma experiência imediata do estímulo ambiental (por exemplo, externo – luz, ou interno – dor), é sua detecção e codificação pelo nosso corpo. O segundo processo é a Percepção, que é a integração desta informação de modo organizado que nos faz ter consciência dos objetos e do ambiente ao nosso redor. Na prática estas distinções são apenas didáticas, pois estes processos ocorrem de forma muito rápida e integrada. Em condições de laboratório é até possível separá-las, mas no cotidiano é praticamente impossível. Por isso chamamos estes dois processos de percepção.

O modelo básico de como ocorre à percepção está abaixo:



Figura 1. Processo básico da informação. O Estímulo pode ser qualquer informação tanto do ambiente externo (calor, por exemplo) quanto interno (dor de barriga).
               
Vamos explicar o modelo com um exemplo. Você está aí em frente ao computador e há um Estímulo (uma picada na perna). Depois disso, você passa a Perceber este Estímulo, então você o Interpreta (Cognição): o que sinto? Dor. Onde? Perna direita. O que pode ser? Uma muriçoca! Por fim você tem uma Resposta a isto (Você olha o que é, ou então dá um tapa na perna). Todo este processo é modulado pela Atenção. Ela faz com que nos concentremos em algo, no caso a picada. Devido a sua importância, haverá um texto específico para Atenção. De modo geral, este processo vale para todos os sentidos.

Figura 2. Muriçoca. Além da picada, este inseto pode nos chamar atenção pelo seu zumbido infernal! Fonte: Viva Terra 



A percepção é feita através dos nossos órgãos dos sentidos. Você deve ter aprendido que possuímos 5 sentidos: Audição, Gustação, Olfação, Tato e Visão. Porém, existem outros sentidos que começaram a ser mais bem entendidos e aumentam esta lista: Cinestesia ou Propriocepção, Dor, Equilíbrio, Percepção do Tempo e Sentidos Orgânicos (sede, fome, oxigenação e sexo).

A percepção, e em especial a percepção visual, é objeto de estudo há séculos. Os gregos antigos propunham duas teorias. Ptolomeu e Euclides propuseram a teoria da “Emissão”, em que raios emanavam dos olhos e eram interceptados pelos objetos. Outra teoria, proposta por Aristóteles, era a da “Interceptação” ou “Intromissão” em que formas representativas dos objetos entravam nos nossos olhos.

Séculos depois, Ibn al-Haytham ou Alhazen (965 – 1040) deu outra explicação que é mais próxima da aceita hoje. Ele demonstrou que é a luz refletida pelos objetos que chegam até os olhos. Seus estudos, com métodos experimentais, criaram as bases da Óptica. Outro pesquisador de grande importância foi Hermann von Helmholtz (1821 – 1894) ao propor que a visão é feita a partir de dados incompletos, com base na percepção prévia. Mais recentemente ainda tivemos outros grandes nomes, como James J. Gibson (1904 – 1979) com sua teoria ecológica e David Marr (1945 – 1980) com sua teoria computacional da percepção.

Cabe ainda ressaltar que os sistemas sensoriais são parte do sistema nervoso. Cada sistema é responsável por um tipo específico de informação, por exemplo, os olhos pela energia eletromagnética radiante (veja mais aqui). Esta estimulação chega até os órgãos dos sentidos e depois é transformada em impulsos nervosos através de um fenômeno chamado transdução. A partir deste ponto nosso sistema nervoso central está apto a interpretar a informação.

Através de processos evolutivos, cada sistema sensorial se tornou capaz de responder a apenas uma faixa do total de informação ambiental disponível. Por exemplo, a maioria dos vertebrados percebe a informação visual (luz) apenas na faixa entre 380 e 760 nanômetros (um bilionésimo de metro). Para entender melhor isto, leia o texto “Aos gregos o mar era violeta”.

Por fim, cabe salientar que a percepção é estudada por diferentes métodos, através de eletrofisiologia, neuroimagemneuropsicologia, psicofísica, etc. Para mais informações sobre o processo neural da percepção, você pode pesquisar nas referências citadas abaixo.

Quer baixar o texto? Clique aqui.

Bruno Marinho de Sousa

Mais sobre o assunto:

Schiffman, H. R. Sensação e Percepção. 5ª Ed. Rio de Janeiro: LTC, 2005.

Guyton, A.C.; Hall, J.E. Tratado de Fisiologia Médica. 11ª ed. Rio de Janeiro: Elsevier Ed., 2006.

segunda-feira, 24 de outubro de 2011

Psicofísica Moderna II - Teoria de Detecção de Sinal (parte I)

Os estudos pioneiros da Psicofísica, por meio dos métodos clássicos, vislumbravam principalmente a obtenção do Limiar Diferencial e do Limiar Absoluto. O cálculo deste último chamava muito a atenção de Gustav Theodor Fechner (1801-1887), pois “poderia ser considerado uma porta de acesso à consciência!”, como foi descrito aqui.

Vamos retomar seu conceito. O limiar absoluto é a intensidade mínima de um estímulo físico a partir do qual ele será detectado. Esta definição implica que valores abaixo deste limiar não serão percebidos e aqueles com magnitude acima serão detectados. Esta idéia carrega consigo a noção de que a experiência perceptiva seria descontínua e funcionaria por uma lei de tudo ou nada. Ou percebo ou não percebo. Neste sentido, os limiares poderiam ser considerados como uma “barreira neural” (ver gráfico à esquerda).
Entretanto, esta idéia começou a ser questionada a partir de evidências advindas de diversos estudos. O limite entre a detecção e a não detecção de um estímulo não seria rígido. Ao contrário, há uma faixa de intensidades dentro da qual às vezes o estimulo é percebido e em outras não. Assim, ocorreria uma transição suave e de maneira contínua (ver gráfico à direita). 


Funções psicométricas distintas, de acordo com a idéia de limiar subjacente a elas. À esquerda, observamos uma função psicométrica com a forma de um degrau de escada, a qual é condizente com a idéia de "barreira neural". Neste exemplo, a intensidade 4 é o limiar absoluto, isto é, valores abaixo de 4 nunca são detectados e valores acima de 4 sempre são detectados. À direita, vemos uma típica curva psicométrica encontrada em experimentos psicofísicos. A transição não é abrupta e o limiar absoluto é definido como a intensidade do estímulo que é detectado em 50% das vezes.


A partir deste pressuposto de que o limiar não é fixo, foram desenvolvidas novas maneiras de investigar a detecção e discriminação de estímulos sem valer-se única e exclusivamente do conceito de limiar. Dentre estas, destaca-se a Teoria de Detecção de Sinal (TDS).

A TDS é uma teoria estatística que tem suas raízes na Teoria Estatística de Decisão, desenvolvida por Abraham Wald (1902-1950) em 1950. Esta teoria fornece modelos de decisão para lidar com fontes de evidência complexas e de grande incerteza. Além disso, se você já teve algum contato com estatística e os testes de hipóteses (teste t e ANOVA, por exemplo), é interessante saber que a teoria de Wald é uma das abordagens utilizadas para se decidir entre rejeitar ou aceitar uma hipótese.

Inicialmente, desenvolveu-se a TDS para resolver problemas relacionados à tecnologia e à comunicação (rádio, telefone, radar). Na década de 50 do século passado, ela foi adaptada e aplicada à Psicologia por pesquisadores da Universidade de Michigan nos Estados Unidos. Em 1966, é publicado o clássico livro de David M. Green e John A. Sweets, chamado “Signal Detection Theory and Psychophysics”, o qual situa e reconhece a importância da TDS dentro da psicofísica.

A TDS considera que há dois componentes, os quais podem ser medidos separadamente, e que definirão a resposta do observador frente a um estímulo: 1) habilidade de detecção ou sensibilidade e 2) processo de decisão. O primeiro não é novidade nenhuma, pois o arcabouço teórico-metodológico da psicofísica clássica está voltado para investigar esta questão. O segundo componente é que diferencia a TDS das abordagens clássicas.

Desse modo, a TDS reconhece que a detecção de um estímulo depende também de fatores não-sensoriais, que afetam o critério de decisão do observador. Por isso, um estímulo de intensidade constante apresentado repetidas vezes, às vezes pode ser detectado e em outras vezes não. Essa flutuação pode ocorrer ou por alguma alteração na sensibilidade do observador ou por mudanças em algum fator não-sensorial (atenção, motivação, expectativa). Podemos concluir, portanto, que a TDS considera que os observadores não apenas percebem, mas também tomam decisões.

Podemos dizer que a TDS não é um modelo de processamento sensorial e sim um modelo geral de decisão relativo a uma evidência. Para entender isso melhor, vamos a um exemplo. Imagine que estamos interessados em investigar a detecção de um ponto luminoso. Na TDS, este estímulo a ser detectado ou discriminado é chamado sinal (signal, em inglês). Para isso, utilizaremos uma tarefa sim/não. Neste tipo de tarefa, em algumas tentativas o ponto luminoso (sinal) será apresentado e em outras não. O observador deve indicar em cada tentativa se o sinal foi apresentado (sim) ou não.

Mesmo quando o sinal não está presente, ainda assim há a probabilidade de respondermos “sim”. Ou seja, há uma incerteza associada à sua sensibilidade perceptiva, que reflete em seu processo de decisão. Para simplificar, vamos exemplificar com uma situação pela qual você já deve ter passado. Ao esperar uma ligação importante, às vezes acreditamos ter ouvido o telefone tocar, quando na verdade ninguém nos ligou ainda. Esta incerteza ou variabilidade associada ao processo estatístico de decisão é chamada de ruído (noise, em inglês).

Talvez você já tenha lido em livros didáticos ou artigos, que o ruído pode ser entendido como uma atividade neural espontânea ou como os vieses não-sensoriais da resposta (por exemplo, atenção, motivação). Entretanto, esta é uma interpretação errônea do conceito de ruído. É inegável a dificuldade de se entender a TDS, dada sua natureza estatística. Assim, na tentativa de simplificar, erros são cometidos. Cuidado com eles!

É comum representar graficamente a distribuição do ruído (r) e do sinal mais o ruído (s + r) sobre um eixo de decisão, como podemos ver na figura abaixo.

Distribuição do ruído (r) e do sinal mais o ruído (s + r) sobre o eixo de decisão. Cada observador define um critério (β), a partir do qual ele decide sobre a presença (“sim”) ou ausência (“não”) do sinal. O critério relaciona-se à força da evidência que o observador julga suficiente para tomar uma decisão. Esta evidência não depende apenas da intensidade da estimulação física do sinal, mas também de outros fatores.



Nesta figura podemos observar alguns pontos importantes. Em geral, para facilitar a explicação sobre a TDS, é utilizado um modelo gaussiano (normal) para representar as distribuições de r e s + r. Além de didático, este modelo é um dos mais utilizados. Entretanto, outras distribuições também são possíveis, porém não trataremos deste assunto aqui. Para uma discussão mais aprofundada e completa sobre este tema, sugerimos o artigo de Pastore, Crawley, Berens e Skelly (2003), cuja referência se encontra ao final deste texto.

Estas distribuições estão representadas sobre o eixo x, chamado de eixo de decisão.  Aqui é comum encontrarmos outro erro. Muitos textos consideram este eixo, como o nível de atividade sensorial. Entretanto, o correto é interpretá-lo como uma medida da evidência a favor (ou contra) uma alternativa (“sim” ou “não”, em nosso exemplo). 

Isto é, à medida que se aumenta o valor da variável de decisão (à direita), a força da evidência mudará de maneira sistemática favorecendo uma alternativa em detrimento de outra. Dessa maneira, a resposta do observador (“sim” ou “não”) dependerá de um critério de decisão adotado (β), ou seja, ele decidirá se a evidência é forte o suficiente para dar uma responda “sim”.

É importante ressaltar que a resposta do observador não depende apenas da intensidade do estímulo e de sua sensibilidade frente a ele. Ela depende do que o participante espera na situação, das conseqüências potenciais de sua decisão, entre outros fatores.
A TDS alcançou um alto grau de sofisticação metodológica e estabeleceu sua posição dentro da psicofísica, além de renovar o interesse sobre esta. Não houve a intenção de esgotar a TDS nestas poucas linhas. Há muitas outras questões importantes a serem abordadas para uma compreensão básica sobre esta interessante teoria. Por essa razão, seguiremos com este assunto em um próximo texto.

Quer baixar o texto? Clique aqui.


Leonardo Gomes Bernardino
_______________________________________________________________



Gostou? Quer ler mais?


  • Green, D. M., & Swets, J. A. (1966/1988). Signal detection theory and psychophysics, reprint edition. Los Altos, CA: Peninsula Publishing.
  • Macmillan, N. A., & Creelman, C. D. (2005). Detection theory: A user’s guide. (2nd Edition). Mahwah, NJ: Erlbaum.
  • Pastore, R. E., Crawley, E. J., Berens, M. S., & Skelly, M. A. (2003). “Nonparametric” A’  and other modern misconception about signal detection theory. Psychonomic Bulletin & Review, 10 (3), 556-569.
  • Schiffman, H. R. (2005) Psicofísica. In: H. R. Schiffman, Sensação e Percepção (pp. 17-33). Rio de Janeiro: LTC.



terça-feira, 13 de setembro de 2011

Divulgação de evento científico – II Conferência em Neurociências e Psicanálise



A Neuropsicanálise surgiu como resultado do entusiasmo de importantes psicanalistas e neurocientistas no início do século XXI (dentre eles Eric Kandel, Joseph LeDoux, Antonio Damásio, Oliver Sacks, Andre Green, Mark Solms e outros).


O Núcleo Tavola com apoio da Sociedade Internacional de Neuropsicanálise promoverá a II Conferência de Neurociências e Psicanálise nos dias 28 e 29 de outubro no Centro Médico de Ribeirão Preto.

Estarão presentes 2 ganhadores do Premio Jabuti, Frederico Guilherme Graeff  (1984, categoria Ciências Naturais, pela obra “Drogas Psicotrópicas e seu Modo de Ação”) e Maria Rita Kehl (2010, categoria Não Ficção pela obra “O Tempo e o cão”) além de outros psicanalistas e neurocientistas escritores de renome como Sidarta Ribeiro (Universidade Federal do Rio Grande do Norte – UFRN), Durval Mazzei Nogueira Filho (Instituto Sedes Sapientiae – SP), Lazslo Antônio Ávila (Faculdade de Medicina de São Jose do Rio Preto – FAMERP), Benilton Bezerra Jr. (Instituto de Medicina Social – UERJ) e Alcides de Souza (Núcleo Tavola – Rib. Preto e Sociedade Brasileira de Psicanálise de São Paulo).

O prazo para submissão de trabalhos vai até dia 01/10/2011. Mais informações e inscrições, pelo site: www.nucleotavola.com.br/neuropsicanalise .

domingo, 11 de setembro de 2011

Psicofísica Moderna I - A Função Potência de Stevens


A Psicofísica não permaneceu a mesma em um século e meio de história. Os trabalhos clássicos de Ernst Heinrich Weber (1795-1878) e de Gustav Theodor Fechner (1801-1887) seguem importantes. No entanto, novos aportes teóricos e metodológicos foram propostos, como acontece com qualquer área do saber.
Neste cenário, um importante pesquisador é Stanley Smith Stevens (1906-1973), um psicólogo norte-americano que fundou o laboratório de psicoacústica na Universidade de Harvard.

 
Stanley Smith Stevens - 1906-1973

Para estudar a relação entre a experiência subjetiva e o mundo físico, S. S. Stevens desenvolveu métodos diferentes daqueles utilizados por Fechner. Estes métodos ficaram conhecidos como métodos diretos, pois foram construídos a partir da premissa de que seria possível obter medidas diretas da experiência sensorial.
Dentre os métodos diretos, o mais utilizado é a estimativa de magnitude. Neste, é apresentado um estímulo padrão (módulo) ao participante, ao qual se atribui um valor arbitrário (10 ou 100, por exemplo). Em seguida, outros estímulos são apresentados e o participante traduz sua sensação em números, comparando os estímulos subseqüentes com o módulo. Vamos supor que a tarefa seja julgar pesos e o módulo seja 100. Se lhe é apresentado um peso, o qual é julgado como tendo o dobro do peso do módulo, o participante lhe atribuirá o número 200. Caso seja percebido como tendo a metade do peso do módulo, então lhe atribuirá o número 50 e assim por diante.
Valendo-se deste método, Stevens realizou um experimento sobre a relação entre som percebido e intensidade sonora, o qual foi publicado em 1936. Seus resultados indicaram que a relação entre a magnitude das sensações e dos estímulos não era logarítmica, como sugerido por Fechner (S = k.logE).
Esta relação seria exponencial e aplicável a todos os sistemas sensoriais, não apenas à audição. Além disso, esta função seria útil para descrever diferentes propriedades do estímulo dentro de uma mesma modalidade sensorial (por exemplo, brilho e claridade no sistema visual).
Chegamos portanto à Função Potência de Stevens, a qual é descrita pela seguinte fórmula:

S=k.Eb
Onde S é a sensação, k é uma constante relacionada à unidade de medida, E é a intensidade do estímulo físico e b é o expoente. O expoente é um valor constante e único para cada modalidade sensorial e reflete a relação entre as magnitudes da sensação e do estímulo.
Vamos representá-la graficamente? Com certeza ajudará na compreensão.

 Função potência de Stevens (Adaptado de Schiffman, 2005)


Este gráfico apresenta a relação entre a intensidade do estímulo (eixo x) e a sensação correspondente (eixo y). A forma da curva é dependente do expoente (b). Por exemplo, para b= 1, o gráfico é uma linha reta. Isto indica a existência de uma relação linear entre a sensação e o estímulo físico. É o que acontece com o comprimento de uma linha. Isto é, se lhe for apresentada uma linha de 10 cm e depois uma de 20 cm, esta segunda será percebida como tendo o dobro do tamanho da primeira.  Se em seguida lhe for apresentada uma de 5 cm, esta linha será percebida como metade daquela de 10 cm.
No entanto, não são todas as dimensões sensoriais que têm uma relação linear como a descrita acima. A percepção de luminosidade possui um expoente menor que 1 (b=0,33) e a função terá a concavidade voltada para baixo no gráfico. Este valor abaixo de 1 mostra que a sensação aumenta a uma taxa menor que a estimulação física. Há uma compressão da resposta sensorial. Desse modo, se aumentássemos em duas vezes a intensidade de brilho da sala onde você está lendo este texto, sua sensação da luminosidade da sala não seria duas vezes maior.
Por outro lado, há expoentes acima de 1, como é o caso do choque elétrico (b=3,5), cuja função apresentará uma concavidade para cima. Nesta situação, a sensação aumenta a uma taxa maior que a magnitude do estímulo físico. Ocorre uma expansão da resposta. Assim, se uma corrente elétrica fosse aplicada em seus dedos e depois dobrássemos a intensidade desta corrente, sua sensação acerca do choque elétrico aumentaria muito mais, não apenas duas vezes.
Nos estudos com a função potência é muito comum transformar os valores as coordenadas x e y em logaritmo. Apesar de parecer difícil, este procedimento não é complicado e traz uma vantagem. Desse modo, eliminam-se as curvaturas e a equação descreverá uma linha reta entre a magnitude do estímulo físico e a sensação. Fica mais fácil comparar os expoentes, pois a inclinação da linha reta converte-se numa medida direta do expoente da função potência. Quanto mais inclinada for esta, maior o expoente. Abaixo, são mostradas a equação e o gráfico em logaritmos.

Log S = Log k + b. Log E
 
Função potência de Stevens em coordenadas logarítmicas (Adaptado de Schiffman, 2005).

Além disto, é possível analisar o valor dos expoentes sob uma perspectiva evolutiva. A expansão da resposta sensorial (b>1) tem uma função de proteção aos tecidos. Ou seja, é uma vantagem ser mais “sensível” e responder em uma proporção maior às mudanças em estímulos nocivos. Por exemplo, um estímulo doloroso (b=1,39) alcançará uma sensação intolerável antes que os danos sejam excessivos ou mesmo irreversíveis, o que é de grande valor adaptativo. Por outro lado, é benéfico ao indivíduo ser menos “sensível” e responder a uma taxa menor (b<1) às alterações no ambiente que ocorrem com alta freqüência (por exemplo, a luminosidade) e com pequeno risco de prejudicá-lo.
A idéia de uma função potência já havia sido sugerida por outros pesquisadores ainda no século 19. Entretanto, a importância e o reconhecimento à S. S. Stevens se deve ao desenvolvimento de novos métodos e à grande quantidade de dados psicofísicos gerados através destes para comprovar a validade da função potência. Suas contribuições foram fundamentais para o desenvolvimento de uma nova Psicofísica, mais subjetiva, baseada numa métrica de avaliações.
Você deve estar pensando: agora não falta eu ouvir mais nada sobre Psicofísica! Não tão depressa... Nos próximos textos, veremos a questão das escalas na Psicofísica e a Teoria de Detecção de Sinal, outra interessante e útil ferramenta para a investigação do funcionamento do sistema nervoso central. Até lá!

Quer baixar o texto? Clique aqui.



Leonardo Gomes Bernardino
_________________________________________________________________

Gostou? Quer ler mais? 
  • Gescheider, G. (1997). Psychophysics: the fundamentals (3rd ed.). Lawrence Erlbaum Associates.
  • Schiffman, H. R. (2005) Psicofísica. In: H. R. Schiffman, Sensação e Percepção (pp. 17-33). Rio de Janeiro: LTC.