Bolsista do CSF ganha prêmio de empreendedorismo

O Lucas Lucchesi, bolsista do Ciência sem Fronteiras, é um dos vencedores do Prêmio Jovens Inspiradores 2014.

Lucas-Lucchesi-csf

O premiado é idealizador do projeto Camarú, iniciativa que tem o objetivo de levar sanitários as habitações da população de baixa renda brasileira e buscar soluções para o saneamento básico no país.

Estudante de Engenharia Civil na Universidade de São Paulo (USP), Lucchesi estudou na University of Sydney. No exterior, se aprofundou sobre “empreendedorismo social”, tema que tem produzido abordagens consistentes na Austrália.

O prêmio contempla estudantes universitários ou recém-formados, apoiando jovens com potencial para que assumir postos estratégicos para o desenvolvimento do Brasil. A iniciativa é da Revista Veja em parceria com a Companhia de Talentos, Abril Plug and Play e Chivas.

Os vencedores ganharam bolsas de estudo no exterior, com orientação profissional de líderes experientes (mentoring).

Fonte: CNPQ

Selfiecity: análise de autorretratos em cinco cidades do mundo

Selfiecity é um projeto que investiga o fenômeno dos selfies, os autorretratos produzidos com celulares ou câmeras digitais que se popularizam nas redes sociais da internet.

[vimeo]http://vimeo.com/87564095[/vimeo]

Selfie” foi considerada a palavra do ano em 2013 pelo dicionário Oxford. A prática se espalhou pelo mundo, e a ideia do projeto é refletir sobre a demografia dos indivíduos que publicam selfies, suas poses e expressões, tendo por base cinco grandes cidades do mundo: São Paulo, Moscou, Nova York, Berlim e Bangkok.

Englobando vários métodos teóricos, artísticos e quantitativos, a equipe de Selfiecity tem a participação dos pesquisadores Lev Manovich, Mehdad Yazdani, Dominikus Baur e Moritz Stefaner.

Uma plataforma interativa online permite navegar num conjunto de 3.200 fotos. São disponibilizadas visualizações em formatos de rich media que reúnem milhares de fotos com objetivo de apresentar padrões interessantes que podem ser relacionados a outras informações, como idade e gênero, por exemplo.

Se propõe a produção de ensaios teóricos visando discutir o fenômeno a partir de perspectivas como a da história da fotografia, a função das imagens nas mídias sociais, e dos métodos para analisar conjuntos de dados.

Referências:

Software Studies Initiative
Gender, age, and ambiguity of selfies on Instagram por Mehrdad Yazdani

Olhar Digital
‘Selfie’ é eleita a palavra do ano pelo dicionário Oxford

Well-Formed Data
Selfiecity

HuffingtonPost.com
Your Hot Selfie Reveals All por Mark Morford

 

Colaborou: Francisco Arlindo Alves

Cientistas demonstram interface cérebro-cérebro entre humanos

Pesquisadores da Universidade de Washington demonstram que é possível enviar informações extraídas a partir de um cérebro humano diretamente para outro cérebro humano.

[youtube]http://www.youtube.com/watch?v=rNRDc714W5I[/youtube]

Os sinais gravados do cérebro do cientista Rajesh Rao foram transmitidos pela internet para o cientista Andrea Stocco, provocando a reação de sua mão direita para acionar um teclado.
B2Bdiagram
No experimento Rajesh Rao ocupava sua mente num jogo de computador. Sua atividade cerebral era registrada por um eletroencefalograma (ou EEG) que capta sinais de forma não invasiva a partir do couro cabeludo.  As informações eram interpretadas por um computador, transmitidas até o outro lado do campus, e remetidas a Andrea Stocco por meio de uma bobina de estimulação magnética transcraniana (Transcranial Magnetic Stimulation – TMS) sobre uma região na parte esquerda do córtex do cérebro responsável pelo controle dos dedos e mão. Os estímulos faziam com que em determinados momentos Stocco usasse sua mão direita para pressionar uma tecla que no jogo dispara um “canhão” com objetivo de destruir um foguete.

Nas sessões realizadas o desempenho do receptor foi altamente preciso variando de 90% a 100%.  Os resultados sugerem que dois indivíduos podem resolver cooperativamente uma tarefa através da transferência direta de informação cérebro-cérebro.

Esta é a primeira experiência produzida entre humanos usando brain-to-brain interface. Mas a comunicação cérebro-cérebro já havia sido demonstrada entre ratos, no início de 2013, por cientistas da Universidade de Duke liderados pelo brasileiro Miguel Nicolelis, pioneiro em estudos que permitem pessoas com paralisia controlar dispositivos robóticos computadorizados. Posteriormente outro experimento conduzido na Universidade Harvard permitiu a comunicação entre um humano e um rato.
A próxima fase do estudo na Universidade de Washington visa quantificar essa transferência de informações através de um maior número de seres humanos.
Referências

The Guardian
Brain-to-brain interface lets rats share information via internet por Ian Sample

WIRED
Human wags rat’s tail using mind control interface por Olivia Solon

Nature
A Brain-to-Brain Interface for Real-Time Sharing of Sensorimotor Information por  Miguel Pais-Vieira,
Mikhail Lebedev, Carolina Kunicki, Jing Wang e Miguel A. L. Nicolelis

University of Washington
Direct Brain-to-Brain Communication in Humans: A Pilot Study

Colaborou: Francisco Arlindo Alves

Robô-água viva gigante

Pesquisadores americanos criam um robô-água-viva com 1,7 metros de diâmetro que se desloca de modo autônomo.
[vimeo]http://vimeo.com/62880818[/vimeo]
Denominado Cyro, o robô foi desenvolvido no Virginia Tech (Virginia Polytechnic Institute and State University) localizado em Blacksburg, localidade do estado norte-americano da Virgínia.  O protótipo surgiu a partir de um outro muito menor, do tamanho de uma mão humana.

Cyro possui uma estrutura de silicone e oito braços de metal, controlados por motores. As ondulações que produzem o deslocamento gastam menos energia do que os movimentos convencionais de natação, e o seu grande tamanho permite percorrer enormes distâncias. O protótipo possui uma bateria com duração de 4 horas, mas estão previstos aperfeiçoamentos para que não seja preciso efetuar recargas por meses.

Entre as aplicações previstas estão o monitoramento do oceano, operações de limpeza em catástrofes marítimas, e missões militares de reconhecimento.

Referências:

Inhabitat
Cryo: Virginia Tech Creates Giant 170-Pound Jellyfish Robot! por  Morgana Matus

Mashable
Huge Jellyfish Robot Is an Underwater Spy por Amanda Wills

WIRED UK
Man-sized robotic jellyfish mimics worlds’ largest por Duncan Geere

Colaborou: Francisco Arlindo Alves

Mapeamento de circuitos neurais: Um peixe na Matrix

Neurocientistas da Universidade de Harvard, introduzem peixes em ambientes virtuais para compreender como o cérebro codifica visão, audição, movimento, e o medo.
[youtube]http://www.youtube.com/watch?v=r9izj28yyJI[/youtube]
O peixe-zebra utilizado na pesquisa, fica parado num tanque de água, mas imerso numa realidade virtual. O animal tem a impressão de estar nadando e se deslocando ao perceber a movimentação do cenário ao seu redor. Um vídeo projetado a partir da parte inferior do tanque, cria um mundo virtual com diferentes ambientes de movimentos de luz e escuridão simulando paisagens subaquáticas.

Dados sobre o comportamento da cauda possibilitam a interação do animal com os ambientes. Geradas por análise  de imagem, ou por monitoramento de neurônios motores, estas informações  são transmitidas para um computador que calcula a modificação do vídeo projetado.
A todo tempo, o comportamento do cérebro do animal é monitorado por sensíveis microscópios, com o objetivo de entender como os neurônios trabalham em entre si para decodificar e absorver entradas sensoriais complexas do mundo real (movimento, odores, sons por exemplo) gerando um conjunto extremamente diverso de respostas e comportamentos.
A pesquisa é realizada por uma equipe de cientistas liderada Florian Engert no Department of Molecular and Cellular Biology na Universidade de Harvard.
A vantagem de utilização de peixes-zebra é que eles podem ser manipulados geneticamente de modo mais fácil, e seus tecidos são transparentes, sendo possível observar seu organismo de forma melhor que outras espécies mais complexas.

Referências:

Nature
Mapping brain networks: Fish-bowl neuroscience por Virginia Hughes

Department of Molecular and Cellular Biology of Harvard University
Florian Engert’s Zebra Fish School por Cathryn Delude

National Geographic
Lab Culture: Glowing Fish Brains, Cartoons, and Espresso in the Engert Lab por Virginia Hughes

 

Coloborou: Francisco Arlindo Alves

 

Projeto CASPAR: preservação de dados digitais para o futuro

O projeto CASPAR é uma iniciativa que tem como objetivo pesquisar, implementar e disseminar soluções inovadoras para a preservação digital.

[youtube]http://www.youtube.com/watch?v=0QGehJ79Vqw[/youtube]

O CASPAR – Cultural, Artistic and Scientific knowledge for Preservation, Access and Retrieval, percebe a informação digital como algo vulnerável e extremamente frágil. Este tipo de informação, indispensável e presente em todos os lugares, exige ferramentas e técnicas confiáveis e de custos eficazes para sua preservação confiável e segura no futuro. Esta preocupação atinge não só registros oficiais, como arquivos de museus, dados científicos, ou mesmo até uma coleção de fotos de família.

Dados oriundos de várias organizações serão tratados pelo CASPAR, entre elas, a UNESCO com foco em patrimônio da humanidade e reserva da biosfera, Agência Espacial Européia com foco nos fluxos de dados captados por satélites para ciência ambiental, e os institutos franceses Groupe de Recherches Musicales (INA-GRM) e Institut de Recherche et de Coordination Acoustique-Musique (IRCAM) com foco na música eletrônica.

Com apoio da União Européia, o site do projeto hospeda uma comunidade que forma uma rede global para debater o tema. Também é disponibilizada uma coleção de vídeos de palestras e capturas de tela de software, além de um repositório de apresentações, artigos e projetos sobre preservação digital.

Referências:

UNESCO
Digital data – here today, gone tomorrow

Colaborou: Francisco Arlindo Alves

Dica de Ronaldo, de Brasília

Cliques no combate ao câncer: crowdsourcing e ciência

O Clicktocure.net é um site que convida o público a colaborar com cientistas para acelerar a análise de dados em pesquisas de combate ao câncer.

[youtube]http://www.youtube.com/watch?v=YfYQhW16Wws[/youtube]

Com dois milhões de imagens de células cancerosas que necessitam ser analisadas, os pesquisadores recorrem ao poder do trabalho coletivo de não-especialistas (Crowdsourcing) para processar informações de modo mais rápido e eficaz.

Este tipo de abordagem, utilizada em variados projetos científicos, vem sendo chamada de “Citizen Science“. No projeto Clicktocure.net, os não-cientistas colaboram voluntariamente com a análise dos dados ao identificar as partes coloridas da imagem e as indicar por meio de avisos que são armazenados num banco de dados.

O foco é utilizar a força da colaboração voluntária das pessoas para descobrir como diferentes células cancerosas se comportam em relação a variados tratamentos. Pelo método convencional, o trabalho era realizado por patologistas treinados, que em muitos casos atuavam também como pesquisadores. Por meio da nova abordagem, estes profissionais serão liberados para se dedicar de modo mais integral a outras pesquisas sobre o câncer.

De acordo com Andrew Hanby, patologista da University of Leeds, o trabalho coletivo voluntário apresenta ocasionalmente alguns cliques acidentais e imprecisões, mas apesar disso, os resultados são melhores que qualquer algoritmo de computador atual.

Neste sentido, uma série de controles foram estabelecidos para que os dados sejam mais confiáveis. Uma percentagem do conjunto de dados é analisada por patologistas e suas respostas são correlacionadas com as dos usuários ajudando o sistema a identificar os usuários confiáveis. Cada imagem é vista pelo menos cinco vezes, permitindo ao sistema aprender sobre a precisão de um usuário, no intuito de alimentar um processo de exclusão de informações imprecisas.

O projeto é promovido pelo instituto britânico Cancer Research UK, e realizado em colaboração com o Zooniverse, site que convida astrônomos amadores para análise de dados fornecidos pela Nasa.

Referências:

University of Leeds
World’s first citizen science project to speed up cancer research

WIRED.co.uk
Citizen science project crowdsources identification of cancer cells por Liat Clark

Cancer Research UK
Help us beat cancer – with just a few clicks of your mouse por Henry Scowcroft

Crowdsourcing,org
Charity harnesses crowds for cancer research por Tonya Van Dijk

Colaborou: Francisco Arlindo Alves

Scale Structure Synthesis, música gerada pela dança das partículas

Scale Structure Synthesis, é um projeto que utiliza a música para estudar a “dança” incessante de pequenas partículas em nanoestruturas.[vimeo]http://vimeo.com/50226770[/vimeo]
As partículas em questão são esferas de poliestireno, com um milionésimo de um metro de diâmetro (um micron). Ao flutuarem num líquido, elas são empurradas para trás e para frente produzindo o que é chamado como movimento browniano. A música é produzida a partir desta movimentação. Com a ajuda de um microscópio ótico de alta potência, e um software de computador, são efetuadas observações e mapeamentos das partículas suspensas no líquido.
[soundcloud params=”auto_play=false&show_comments=true”]http://api.soundcloud.com/tracks/26623007[/soundcloud]
As distâncias que percorrem em seu deslocamento, e o ângulo de suas movimentações são respectivamente representados de modo sonoro gerando a frequência para música, e a distorção harmônica. O som sintético é reproduzido no ambiente de uma instalação por uma série de alto-falantes.

Desenvolvido pela Universidade de Sheffield, (Reino Unido), a iniciativa é conduzida pelo artista e compositor Mark Fell e pelo engenheiro bioquímico PhD Jonathan Howse.

Além de produzir resultados relacionados a aspectos estéticos, o projeto busca revelar curiosidades a respeito do comportamento das partículas, que podem ser importantes no desenvolvimento de tecnologias ligadas a indústria bioquímica.

Referências:

Create Digital Music

Nanomusic: Mark Fell Turns to Neuroscience and High-Power Microscopes for Particle Music por Peter Kirn

Revista Pesquisa FAPESP

Carmen Prado: Física da USP relaciona movimento browniano, fractais e a teoria do caos por Fabrício Marques

BBC

Music from tiny particles’ movements set to debut por Jason Palmer

Colaborou: Francisco Arlindo Alves

Neurociência, marketing e o subconsciente dos consumidores

Técnicas de eletroencefalografia, eye tracking (captura dos movimentos dos olhos), e medições biométricas (freqüência cardíaca, respiração, movimento corporal, pressão arterial, e etc.) são cada vez mais utilizadas para a análise de respostas do subconsciente de consumidores.
[youtube]http://www.youtube.com/watch?v=P4bedGudg_E[/youtube]

No vídeo acima, o dispositivo Mynd criado pela em presa NeuroFocus

Denominado como Neuromarketing, este conjunto de aplicações e metodologias busca identificar sentimentos, emoções e preferências a respeito de marcas, produtos, embalagens, ações de marketing e publicidade.

A NeuroFocus, uma das empresas que lidera as pesquisas neste campo, desenvolveu em 2011, um dispositivo semelhante a um fone de ouvido, denominado Mynd, que funciona como um scanner cerebral portátil, possibilitando o monitoramento das atividades produzidas pelas ondas cerebrais através do cérebro inteiro. Diferente dos aparelhos de eletroencefalograma convencionais, o equipamento dispensa o uso de gel, ou mesmo a conexão direta de fios na cabeça do indivíduo.

Em 2008, a empresa passou a ter como um dos seus principais investidores, a Nielsen Company, maior consultoria de pesquisas sobre consumo e audiência no mundo. Segundo a NeuroFocus, as medidas diretas de ondas cerebrais (EEG) produzem pesquisas de mercado com resultados mais precisos do que entrevistas e grupos de foco, considerando que existem muitas diferenças entre o que as pessoas relatam e o que realmente pensam. O que se propõe é a análise das atividades em diferentes regiões cerebrais, como um modo de medir de que forma uma ação de marketing ou um produto, pode por exemplo, prender a atenção, provocar emoções, ou fixar-se na memória.

NeuroFocus assegura a confiabilidade de sua tecnologia ao agregar em seu conselho consultivo pesquisadores do MIT e reconhecidos cientistas ligado a neurociência. Mas, por outro lado, surgem preocupações sobre a invasão de privacidade que envolve a “leitura da mente”, e suspeitas sobre a possibilidade de indução de pessoas ao consumo de coisas que não querem ou não precisam. Entre as opiniões divergentes,  o pesquisador Mike Page, da Universidade de Hertfordshire na Inglaterra, afirma em artigo ao Telegraph, que a tecnologia EEG revela onde a atividade cerebral está localizada, mas não pode identificar seguramente o conteúdo mental associado a atividade em questão. Segundo esta perspectiva, não é possível a distinção entre diferentes emoções, como por exemplo, o amor e a repulsa.

Lançado no Brasil em abril de 2012, o livro “Cérebro Consumista” (originalmente “The Buying Brain“) de A. K. Pradeep, presidente mundial da NeuroFocus, é uma das principais referências para conhecer o neuromarketing do ponto de vista de seus defensores, e suas propostas de mesclar conhecimentos da neurociência e do marketing para compreender melhor potenciais consumidores.

Referências:

Telegraph
Neuromarketing: reading our festive desires por Roger Highfield

NeuroGadget
NeuroFocus Reveals Mynd the First Wireless Full-Brain EEG Headset

NEW SCIENTIST
Innovation: Market research wants to open your skull

Mashable
Facebook’s Secret to High Emotional Engagement? Faces por Todd Wasserman

Meio&Mensagem
Neuromarketing: best seller chega ao Brasil por Jonas Furtado

Colaborou: Francisco Arlindo Alves

The Radioactive Orchestra

The Radioactive Orchestra é um projeto que tem como objetivo explicar a radioatividade através da música.

[youtube]http://www.youtube.com/watch?v=GQxOC_BK9bs[/youtube]

O projeto oferece uma interface Web que permite compor músicas baseadas nos movimentos reais de 3.175 isótopos radioativos, e ao mesmo tempo obter dados científicos sobre cada um deles.

As melodias surgem a partir de freqüências isotópicas, elaborando uma tradução das características presentes na energia radioativa para uma forma mais tangível. Esta representação musical é baseada nas assinaturas características dos raios gama que os átomos emitem naturalmente em torno de nós o tempo todo, tendo como princípio o estabelecimento de comparações entre parâmetros físicos e musicais.

A iniciativa surgiu de uma colaboração entre o Instituto Real de Tecnologia ou Kungliga Tekniska Högskolan (KTH) e o Instituto de Formação e Segurança Nuclear Sueca (KSU). A trilha sonora foi criada pelo DJ baseado em Estocolmo Axel Boman, e o artista eletrônico Kristofer Hagbard que desenvolveu a interface interativa.

Referências:

Make
Make Music With Radioactivity

Brain Pickings
Radioactive Orchestra: Making Music from Nuclear Isotopes por Maria Popova

Designboom
Axel Boman and the Radioactive Orchestra

Colaborou: Francisco Arlindo Alves

Diagnóstico de Catarata por celular

Uma equipe de pesquisadores do MIT Media Lab Camera Culture Group liderada por Ramesh Raskar, propõe uma nova solução para diagnosticar e quantificar cataratas por meio de um aparelho celular.

[vimeo]http://vimeo.com/23909057[/vimeo]

O dispositivo chamado Catra faz uma varredura do olho com um feixe de luz para detectar uma eventual opacidade no cristalino que pode identificar a catarata.

A catarata é a principal causa evitável de cegueira no mundo, afetando 250 milhões de pessoas. O exame para detecção atualmente adotado requer um instrumento denominado lâmpada de fenda que custa aproximadamente 5.000 dólares. Também é preciso um médico capacitado para fazer a avaliação dos resultados. Em locais de difícil acesso, e regiões pobres dificilmente ambas as condições podem ser atendidas. Com o recurso do Catra, o próprio paciente poderia fazer o exame, de modo a proporcionar o diagnóstico da doença em sua fase inicial de forma simples e com baixo custo.

A pesquisa contou com a participação dos brasileiros Manuel Oliveira, professor da Universidade Federal do Rio Grande do Sul (UFRGS) e Esteban Clua, professor da Universidade Federal Fluminense (UFF) no Brasil.

O projeto abarca conhecimentos de computação gráfica, ótica e técnicas de interatividade e tem entre seus objetivos a produção de mapas detalhados em que será possível visualizar, por exemplo, a gravidade e localização dos casos da doença. O uso clínico do teste ainda depende de um processo de validação clínica mais detalhado, em que a equipe de pesquisadores vai efetuar testes utilizando o Catra num universo maior de indivíduos.

Referências:

MAKE
Smartphone Accessory Detects Cataracts por Adam Flaherty


Mashable

Smartphone Attachment Diagnoses Cataracts por Jennifer Van Grove

MIT News
Radar for the human eye por David L. Chandler

Colaborou: Francisco Arlindo Alves

HAL, armadura robótica movimentada por sinais nervosos

Criado pela empresa japonesa Cyberdyne, o Hybrid Assistive Limb ou HAL é uma armadura robótica, desenvolvida para expandir e melhorar a capacidade física do ser humano.

Por meio de sensores instalados junto a pele do usuário, o dispositivo consegue captar os sinais nervosos enviados do cérebro para os músculos. O exoesqueleto robótico é constituído por articulações mecânicas que são fixadas em partes do corpo de forma a apoiar a movimentação do utilizador com base nas intenções reveladas pela interpretação dos bio-sinais captados.
[youtube]http://www.youtube.com/watch?v=Fj_Tp0UKc7M[/youtube]
HAL é movido por uma unidade de bateria, e permite ao usuário carregar pesos de até 80 quilos. Conforme divulgado pela Cyberdyne, o mecanismo pode ter variadas aplicações, entre elas, contribuir para reabilitação física na área médica, auxíliar pessoas com deficiência, dar suporte para trabalhadores que desenvolvem tarefas que demandam esforços físicos excessivos na indústria, e apoiar operações de resgate em locais de desastres, bem como ser usado no campo do entretenimento.

Um dos exemplos práticos da aplicação desta tecnologia, pode ser demonstrado por Seiji Uchida, um japonês de 49 anos, vítima de paralisia após um acidente de carro que ocorreu há 28 anos. Com a ajuda do traje high-tech robótico, Uchida consegue ficar de pé sem auxílio e realizou o sonho de sua vida: visitar o monte Saint-Michel na França, patrimônio da humanidade.

Referências:

Inhabitat
Japanese Robo-Suit Enables Paralyzed Man to Visit France por Timon Singh

Cyberdyne
Robot Suit HAL

DesignBuzz
Hybrid Assisted Limb robo-suit helps paralyzed to take on rough terrains por Ann Maria Cleetus

Colaborou: Francisco Arlindo Alves

ABCiber e Itaú Cultural lançam “A Cibercultura em Transformação”

A ABCiber – Associação Brasileira de Pesquisadores em Cibercultura, e o Instituto Itaú Cultural lançam com apoio da CAPES e da Pluricom, o volume 2 da Coleção ABCiber de textos sobre cultura digital, em formato e-book online, sem versão impressa e aberto ao acesso universal.

A obra “A Cibercultura em Transformação: Poder, liberdade e sociabilidade em tempos de compartilhamento, nomadismo e mutação de direitos” apresenta trabalhos de pesquisadores brasileiros destacados no campo da cibercultura. Compõem o projeto, textos de Adriana Amaral, André Lemos, Diana Domingues, Erick Felinto, Eugênio Trivinho, Fátima Régis, Fernanda Bruno, Francisco Rüdiger, Gilbertto Prado, Gisela G. S. Castro, Lucia Santaella, Lucrécia D’Alessio Ferrara, Luisa Paraguai, Marco Silva, Marcos Palacios, Rogério da Costa, Sandra Portella Montardo, Sergio Amadeu da Silveira, Sueli Mara Soares Pinto Ferreira, Suely Fragoso e Yara Rondon Guasque Araújo.

Conforme consta na sinopse da obra divulgado pelos organizadores, “o projeto concentra e aprofunda preocupações teóricas, epistemológicas e metodológicas a respeito das principais características do processo civilizatório aí pressuposto, de base multimediática avançada – suas origens, seu estado da arte, suas tendências e horizontes –, e, em particular, de como ele se expressa no Brasil, seja por seus aspectos problemáticos, seja por sua diversidade e suas potencialidades“.

A obra está disponível no site da ABCiber

Colaborou: Francisco Arlindo Alves

Vibratron, um robô-músico

O Vibratron é o novo “robô-músico” membro da RobOrchestra, projeto do Carnegie Mellon University Robotics Club, um grupo que tem como objetivo não apenas desenvolver instrumentos musicais que possam tocar de modo autônomo, mas que consigam trabalhar em conjunto para criar suas próprias músicas.
[youtube]http://www.youtube.com/watch?v=Y66-KiC_Qro[/youtube]

Construído com um orçamento total de 1000 dólares, o Vibratron é equipado com um microcontrolador Arduino Mega. Seu funcionamento ocorre por meio da liberação de esferas de aço que caem sobre 30 teclas dispostas circularmente e configuradas para tocar notas MIDI de 48 a 77. As esferas são recolhidas pela própria máquina, e em seguida são novamente liberadas caindo numa nova tecla.

O projeto é liderado por Andrew Burks, que disponibilizou no seu site, todo o histórico do projeto com detalhes sobre os materiais, esquemas e soluções adotadas.

O RobOrchestra objetiva a criação de uma banda completa, com pelo menos um instrumento para cobrir os papéis de soprano, contralto, tenor, baixo e ritmo.

Referências:

Carnegie Mellon University Robotics Club
RobOrchestra: Vibratron | Carnegie Mellon Robotics Club

Arduino Blog
Vibratron Robot Plays Out Midi As Steel Balls por D.gomba

Make Magazine
Vibratron Robot Makes Music Using Steel Balls por Matt Mets

Colaborou: Francisco Arlindo Alves

OpenAIRE

A União Europeia esta disponibilizando aos seus investigadores, empresas e cidadãos uma plataforma de acesso livre e aberto aos documentos sobre a investigação científica chamada OpenAIRE (infra-estrutura de acesso aberto para a investigação na Europa – Open Access Infrastructure for Research in Europe).
[vimeo]http://vimeo.com/17542958[/vimeo]
Segundo consta no site do projecto um dos objetivos é “conduzir a novas formas de indexação, anotação, ordenamento e ligação dos resultados das actividades de investigação, assim como a novos métodos de automatização destas operações”.

Lançada no dia 3 de dezembro, na Universidade de Gent, na Bélgica, a OpenAIRE criará uma rede de repositórios abertos que reúne documentos elaborados por cientistas financiados pela UE em diversos campos como saúde, meio ambiente, energia, tecnologias da informação, ciências sociais e humanas.

Via Luiza Alvim

Coloborou: Francisco Arlindo Alves

0h!M1gas: formigas como DJs

0h!M1gas é um ambiente biomimético baseado na análise da atividade de uma colônia de formigas registrada em áudio e vídeo em uma instalação sonora reativa. O mapeamento do comportamento das formigas tem como foco o movimento, e principalmente a comunicação por meio de ruídos produzidos pelo atrito entre partes do corpo, a estridulação.

Imagem original de http://kuaishen.tv/0hm1gas/

Kuaishen Auson, artista equatoriano que idealizou 0h!M1gas (pronuncia hormigas) procura estabelecer analogias e diferenças entre o “scratching” como uma expressão estética da cultura humana presente no universo dos Djs e os fenômenos de estridulação das formigas como método de comunicação.

Ao pensar as formigas como Djs, a proposta sugere a percepção da colônia de formigas como um superorganismo natural que pode ser sentida e entendida por meio de suas ondas sonoras, pedaços de freqüências e ritmos musicais, mapeados em seus movimentos e estridulações.

O objetivo final seria um sistema de feedback cibernético, fundamentado na especulação sobre a possibilidade de tentar se comunicar com as formigas, considerando a análise de dados recolhidos em tempo real, numa conexão de realimentação entre as formigas e os toca-discos.

Na semana passada, 0h!M1gas foi premiado com menção honrosa no Share Festival em Piemonte na Itália. Na cerimônia de premiação Bruce Sterling, um dos membros do júri, teceu algumas considerações:

“Our special commendation goes to Kuai Auson for the installation Oh!M1gas (pronounced hormigas). In this unique, ingenious work from Cologne, ants – social networkers par excellence – become techno musicians. An intelligent industrial design acts as back-up to the musical ants, which after touring several countries are now performing here in Italy too – good luck with your career Kuai.”(via Rhizome)

É possível ver alguns vídeos de 0h!M1gas no site do projeto.
http://kuaishen.tv/0hm1gas/
http://www.toshare.it/?lang=en

http://kuaishen.tv/

http://rhizome.org/announce/view/56421

Referências:
< nettime >
Share Festival 2010 – Smart Mistakes – Winner Share Prize 2010 por Share Festival

Rhizome
Share Festival 2010 – Winner Share Prize por Luca Barbeni

Colaborou: Francisco Arlindo Alves

Antena com nanotubos de carbono aumenta eficiência de energia solar

Em vez de se instalar nos telhados das casas, grandes painéis solares com células fotovoltaicas para produção de energia solar, um grupo de engenheiros quimicos do MIT propõe a adoção de pequenos spots portando minúsculas células fotovoltaicas que concentrariam os fotons captados por antenas equipadas com feixes de nanotubos de carbono.

A antena teria de 10 micrômetros de comprimento e quatro micrômetros de espessura, contendo cerca de 30 milhões de nanotubos de carbono nos quais os fotons seriam transportados.

Segundo os pesquisadores, os custos para a produção de nanotubos de carbono eram muito elevados até pouco tempo, mas têm gradualmente caído em função dos avanços na capacidade de produção, por esta razão acredita-se que em breve a utilização desta tecnologia seria viável economicamente, tendo em vista que é 100 vezes mais eficiente que o método convencional. Além da produção de energia solar, este desenvolvimentos poderiam ser útéis em determinadas situações em que se exige concentração da luz, como em óculos de visão noturna ou em telescópios.

O trabalho foi financiado pelo National Science Foundation Career Award e MIT-Dupont Alliance e Korea Research Foundation.

Referências:

Inhabitat
IT’s Solar Funnel Concentrates Solar Energy 100 Times por Timon Singh

MIT News
Solar funnel por Anne Trafton

Science News
Funneling Solar Energy: Antenna Made of Carbon Nanotubes Could Make Photovoltaic Cells More Efficient

Artigo publicado pelo pesquisadores do MIT na Nature Materials:
Exciton antennas and concentrators from core–shell and corrugated carbon nanotube filaments of homogeneous composition

Colaborou: Francisco Arlindo Alves

O tecido que ouve

O desenvolvimento de um novo tipo de fibra que detecta e emite sons foi anunciado por uma equipe de cientistas do MIT esta semana.

Foto de Greg Hren do Research Laboratory of Electronics at MIT
Foto de Greg Hren do Research Laboratory of Electronics at MIT

Conforme afirmam os pesquisadores, as fibras desenvolvidas até hoje tem uma natureza inerte e estática que faz com que elas sejam incapazes de modificar suas propriedades mediante uma ampla gama de freqüências. A inovação trazida pela nova fibra, reside em sua capacidade de poder funcionar como sensível microfone ou alto-falante, em função de ter sido elaborada com uma tecnologia que utiliza materiais piezoelétricos (materiais que geram corrente elétrica quando deformados por pressão mecânica). No caso foi utilizado um polímero ferroelétrico, de 30 microns de espessura.

Além disso, uma fonte de alimentação pode aplicar uma corrente ao tecido, de modo a fazê-lo vibrar em freqüências audíveis a curta distância, tornando possível a reprodução de diferentes notas e sons. As propriedades acústicas deste tipo de fibra permitem captar e emitir ondas sonoras.

Os pesquisadores sugerem que uma roupa produzida com este tecido, funcionaria como um sensor poderoso para monitorar múltiplas funções corporais, como o fluxo sanguíneo ou a pressão cerebral.

O trabalho, apresentado no artigo Multimaterial piezoelectric fibres publicado no dia 11 junho na revista Nature, foi patrocinado por instituições que dão suporte a pesquisas militares, como o MIT’s Institute for Soldier Nanotechnologies Nanotechnologies e o DARPA (U.S. Defense Department’s Defense Advanced Research Projects Agency). Cabe refletir que o desenvolvimento de roupas que “conseguem ouvir”, implica obviamente em diversas questões relacionadas a privacidade, a cerca do direito de decidir, o que, e quando, a roupa pode ou não ouvir.

Para saber mais:

Artigo de Marshall Kirkpatrick no ReadWriteWeb
MIT Creates Cloth That Listens

Artigo dos pesquisadores do MIT na Revista Nature
Multimaterial piezoelectric fibres

Revista FAPESP (sobre materiais piezoelétricos)
Eletricidade do aperto

MIT News
Fibers that can hear and sing

Colaborou:
Francisco Arlindo Alves

Energia: 10.000 vacas = 1.000 servidores

A equipe de pesquisadores da Hewlett-Packard Laboratories divulgou um trabalho em que demonstra como uma fazenda de 10 mil vacas leiteiras pode, por meio do processo de digestão anaeróbia dos animais, produzir um volume de gás metano suficiente para gerar 1 MW de energia elétrica, podendo abastecer um data-center moderno com 1000 servidores.

No paper intitulado “Design of Farm Waste-Drive Supply Side Infrastructure For Data Centers“, são sugeridas soluções sustentáveis para produçao de energia, por meio de uma integração mutuamente vantajosa entre agricultores e as empresas de tecnologia.

Entre os aspectos constituem esta integração, está a constatação de que sistemas de biogás requerem uma grande quantidade de calor para a produção de combustível, e em contrapartida, equipamentos de informática produzem uma grande quantidade de calor. Há uma complementaridade nos dois processos. O uso do calor proveniente dos data-centers para favorecer a potência da unidade geradora de biogás.

Outro fator importante, segundo a pesquisa, é que o metano liberado na atmosfera, é potencialmente mais nocivo do que o dióxido de carbono. No processo proposto, o metano pode ser captado e usado para alimentar os geradores elétricos. Desta forma, é possivel reduzir a poluição agrícola e desenvolver centrais de processamento de dados ambientalmente sustentáveis.

Referências:
http://www.gizmowatch.com
http://www.hpl.hp.com/news/
http://www.inhabitat.com/
http://www.hpl.hp.com/news/2010/apr-jun/

Colaborou: Francisco Arlindo Alves

Os sons das partículas de Deus

No Large Hadron Collider (LHC), o maior acelerador de partículas já construído, centenas de pesquisadores de várias partes do mundo tentam identificar a “partícula de Deus”, termo usado pelo prêmio Nobel em física Leon Lederman para denominar o Bóson de Higgs.

HiggsJetMoti.mp3

InnerDetectorLayers.mp3

HiggsJetSimple.mp3

Em termos sonoros, como poderia ser representado este fenômeno da física? Um dos pesquisadores do LHC, a física de partículas Lily Asquith, se questionou sobre isso, e passou pesquisar como poderia conceber um som emitido a partir dos experimentos efetuados em busca da almejada partícula que ocorrem nos extensos túneis da máquina de 27 quilômetros.

Asquith formou uma equipe de físicos de partículas, músicos e artistas e criou o projeto LHCSound. O objetivo é transformar em música os dados coletados pelo detector de partículas ATLAS (A Toroidal LHC ApparatuS), experimento que funciona dentro do LHC.

Propriedades de energia, massa, velocidade ou posição espacial, são mapeadas, de forma que suas variações, passam a ser identificadas por meio de representações numéricas. Os dados são interpretados pelo software de composição músical Csound, de maneira que para cada propriedade é atribuido um som que é modulado pelas variações da mesma. O resultado é uma combinação variada de sons, sendo que alguns deles estão disponíveis para audição em arquivos MP3 no site do projeto.

O processo utilizado é denominado sonorização, e entre outras aplicações, é usado para ajudar pessoas cegas a poder interpretar cores que não conseguem discernir, com o uso de códigos de som diferenciados. Por outro lado, também pode ser considerada a dimensão artística deste tipo de técnica. O site espanhol abc.es publicou o texto El espeluznante sonido de «la máquina de Dios» em que classificou alguns sons extraídos a partir do LHC, como semelhantes ao barulho de água corrente ou a uma trilha sonora de um filme de terror.

Baseando-se em sua utilidade em estudos no campo da física, podemos entender a sonorização como uma excelente ferramenta para compreensão de dados variados. Segundo Asquith, nossos ouvidos são detectores sofisticados, podemos determinar a direção de um som em torno de aproximadamente 3 graus, ou detectar a diferença na freqüência de cerca de 0,3%. Na visão da pesquisadora, o método é útil para representar diversas dimensões ou aspectos de dados ao mesmo tempo, sem sobrecarregar o observador.

Colaborou: Francisco Arlindo Alves

REFERÊNCIAS:
Newscientist
CultureLab: LHCsound: Listening to the God particle

ABC.es
El espeluznante sonido de «la máquina de Dios»