[...] Ou seja, se aceitaria a lei de Hume mas daí passaria para algo que deve ser consensual sem partirmos de assunções pseudocientíficas (vontade de deuses e etc), como que o ideal é "minimizar o sofrimento" e "maximizar felicidade". Acho que seria no fim das contas algo como um utilitarianismo com alguns remendos para acabar com conclusões mais malucas em que possa desmbocar (como matar um sujeito saudável para dar seus órgãos a mais pessoas com falência de órgãos).
Vejo três problemas aí:
- Nós não temos sequer uma definição vagamente consensual do que seja felicidade e sofrimento. Ela varia amplamente entre diferentes culturas, épocas e indivíduos (e provavelmente espécies). Numa comunidade em que a maioria das pessoas é masoquista, deve ser moral permitir a violência?
As pessoas de todas as sociedades devem ter conceitos próximos de "felicidade" e "sofrimento" (especialmente sofrimento), que se correlacionam com o mesmo padrão de atividade cerebral, padrões que também devem existir em outras espéices, tão mais próximos quanto mais próximas forem as espécies.
Como disse antes, você ainda deve considerar variações culturais e individuais, mesmo essas de ordem provavelmente psiquiátrica. O cenário imaginado não é então muito diferente do de se questionar ter como ideal a redução do uso de drogas danosas por existirem comunidades de usuários de drogas.
Numa "redução ao absurdo" o argumento relativista é como de não tratar depressão porque pode-se imaginar um "relativismo individual", onde o sofrimento narrado por aquela pessoa na verdade é felicidade (ou, nenhuma dessa coisas existe), e pode ser que ele esteja melhor assim apesar de buscar tratamento.
A felicidade de quem se levaria em conta? A felicidade a se levar em conta é só a do indivíduo que irá realizar a ação? Não pode ser, senão será moral ele prejudicar terceiros para aumentar a própria felicidade. É a do indivíduo e das pessoas próximas? Também não pode ser, senão será moral ele, por exemplo, assaltar pessoas desconhecidas para aumentar a felicidade de seu grupo. É a felicidade das pessoas daquela nação? Também não pode ser, senão será moral escravizar estrangeiros para aumentar a felicidade local. É a do maior número de seres humanos possível, independente da nacionalidade? Também não pode ser, senão será moral trair o próprio país para ajudar um país estrangeiro mais populoso, ou então será moral matar seres humanos para salvar a vida de um número maior de seres humanos.
Como disse, não manjo dessas coisas. O "utilitarismo", que mencionei, tenta ser universal e portanto seria "felicidade máxima". Como exemplifiquei, tem seus problemas, e não sei como "resolvê-los", tenho conhecimento apenas muito superficial sobre esse tema e não suponho que vá conseguir pensar um pouco agora e resolver esses problemas, que talvez até ainda estejam em aberto, mesmo para aqueles "trabalhando" com princípios que eu julgo serem os mais razoáveis (partir da realidade versus mitologias).
Palpite agora, talvez parte da solução fosse uma espécie de "falsificacionismo", deixando mais em aberto a questão de felicidade, e tendo como principal meta a redução do sofrimento, que, como disse antes, deve ser algo bem mais próximo de universal, excluindo-se condições anômalas, que também possivelmente podem ser tratadas de maneira "humana", de acordo com "a realidade", e sem conduzir a paradoxos morais insolúveis.
Outro problema: a felicidade deve se restringir somente aos humanos? Nesse caso é moral permitir touradas, exploração de chimpanzés em zoológicos, etc. Deve ser considerada a felicidade de várias espécies desde que sejam conscientes e de acordo com seu grau de inteligência? Também não pode ser, porque se conhecêssemos uma civilização mais inteligente seria moral eles nos explorarem para aumentar a felicidade deles próprios em casos que não tiverem alternativa.
Como disse antes, "outras espécies" cria uma camada interessante de problemas, mas acho que não são necessariamente impedimento absoluto a essa meta de valores objetivamente melhores para todos. Dentro daquilo que me parece razoável (novamente, sem nunca ter feito análise profunda dessas questões), haveria extensão desse princípio de evitar sofrimento sim a outras espécies. Enquanto a variação natural da empatia é um problema, acho que é possível ter como meta sua expansão dentro do razoável, porém, haverá por todo futuro visível/imaginável fato a necessidade de fazer concessões também razoáveis, talvez até objetivamente necessária a meta de redução geral do sofrimento.
- Como agir nos casos em que o conceito objetivo, e portanto categórico, de moral entrar em conflito com o que subjetivamente achamos certo? Se é objetivamente melhor salvar mais vidas do que salvar menos vidas, então o paradoxo do transplante de órgãos terá necessariamente uma resposta correta, que será matar o indivíduo saudável para salvar os doentes em maior número. Fazer "remendos" para ajustar uma ética objetiva aos nossos sentimentos subjetivos nada mais é do que despir essa ética de sua objetividade em favor das nossas características culturais.
Talvez a resposta esteja nessa objetividade em questão ser algo próximo da agregação da subjetividade coletiva. Então se uma série de princípios não se adequam ao que as pessoas em geral setem como certo, esses princípios estão até objetivamente
errados. E precisam então no mínimo de remendos para compatibilizar com o moral/emocionalmente aceitável.
No entanto, para que seja realmente objetiva, tal perspectiva não deve ser cega ao fato de que é também natural haver uma forte resistência a abandonar valores irracionais e/ou nocivos. Então entram em jogo questões políticas/diplomáticas e etc, se pensar em formas de promover, tão gradual e pacificamente quanto possível, a esses valores objetivamente melhores, menos destrutivos, que causam menos sofrimento.
O problema é que essa progressão gradual, em si, seria imoral, pois ela estaria colocando o desconforto da comunidade a ser mudada acima do sofrimento de quem ela está prejudicando. Um caso "light" pode parecer uma boa ideia, como introduzir gradualmente a vacinação entre indígenas para que não prejudiquem suas crianças e ao mesmo tempo não lhes dê um choque cultural tão grande. Mas em um caso mais extremo essa metodologia já deixa de se sustentar. No holocausto, por exemplo, nós deveríamos negociar gradualmente com os nazistas para que fossem desaparelhando aos poucos os campos de concentração a fim de não causar grande choque cultural? De forma alguma: os aliados chegaram abruptamente, tão logo quanto possível, para salvar as vidas humanas, e se há alguma crítica a essa ação é pelo fato de não ter sido ainda mais rápida. Não há nada de objetivo que diga que a vida das crianças indígenas, ou dos astecas, ou dos zimbabuenses deva valer menos que a dos judeus, então, objetivamente, a única abordagem justificável é a imposição abrupta e imediata da cultura "melhor", para minimizar o sofrimento de quem está sendo prejudicado pela cultura "pior". Não há justificativa racionalmente defensável para nenhuma abordagem gradual, o que é claramente um problema.
Acho que deve haver sim, no mínimo a prática, uma avaliação de riscos. Mas haverá sempre problemas; se não podemos onipotentemente consertar tudo, sempre terá que se fazer concessões quanto ao mal, optando geralmente pelo "menor dos males". Ao mesmo tempo, teremos vieses cognitivos que dificultam as avaliações do que seria o certo, criando inconsistências nas ações que as pessoas e países decidem ter, e coisas com que não concordamos em retrospecto, bem como resistência a essa análise objetiva, por dissonância cognitiva.
(Semi-OT: acho que o contra-exemplo tem falhas históricas em não ter sido o conhecimento do genocídio em andamento que desengatou a Segunda Guerra Mundial, bem como essas políticas não serem "cultura alemã", possivelmente nem consensuais mesmo entre antissemitas propriamente ditos.)
Mas considerar outras espécies animais é um acréscimo interessante ao problema. A verdade objetiva deve pender para algo ainda humano-centrista, mas com uma aspiração vegetarianóide, porém caminhando rumo a ao desenvolvimento de substitutos saborosos de carne, ou carne descerebrada/moralmente equivalente.
Eu não conseguiria chamar algo nesse sentido de "verdade objetiva". É uma verdade criada a partir de um parâmetro que podia ser outro. Se nossa moral é humano-centrista, não parece mais objetiva que uma moral paralela bonobo-centrista, chimpanzé-centrista, "alienmaisdesenvolvidoquenós"-centrista. Para defender que uma moral humano-centrista é objetivamente a melhor moral possível, é necessário admitir que o ser humano é objetivamente o melhor animal possível.
Seria um pouco como dizer que há uma série de princípios dietéticos objetivamente melhores, mais saudáveis. Obviamente, são assim aos humanos, não a qualquer espécie animal, vegetal, bactéria, fungo, ou ser extraterrestre imaginado.
Ser humano é tudo que podemos ser, então deve ser a única coisa mais razoável de ser levada em consideração prática, ao mesmo tempo em que não existe "moral" sem humanos.
Mas pode-se explorar cenários ainda mais hipotéticos, envolvento ETs hipotéticos, ou mesmo argumentar que as capacidades cognitivas humanas nos colocariam num patamar moral "superior". Acho que já teve um tópico sobre isso, inclusive. Eu "concordo" no sentido de que, bem, tecnicamente somos a única espécie que se preocupa com isso para começar, que formula e avalia sistematicamente a moral, enquanto as demais estão apenas agindo instintivamente para sua sobrevivência. Mas frasear isso como "superioridade humana" parece algo sem sentido muito maior do que falar da "inferioridade moral dos bebês", praticamente pelo mesmo motivo. (Fico imaginando tópicos indo nessa linha de discussão e ter gente questionando então se é MORAL o indivíduo cagar por todo o lado, e na casa dos próprios pais, que o alimentam e protegem).
A não ser que com "verdade objetiva" você esteja se referindo a algo como as regras do xadrez, que são objetivas à medida que não dependem da subjetividade dos jogadores, mesmo admitindo que não são necessariamente "as melhores regras possíveis". Aí poderíamos concordar, mas o argumento perderia toda a força uma vez que, ainda que as regras sejam objetivas, sua escolha foi feita de forma subjetiva/culturalmente influenciada.
Não, acho que se poderia falar de algo substancialmente mais objetivo que isso. Algo nas linhas de "leis universais" para convívio humano pacífico, sem influência de pressupostos mágicos ou mesmo condições mais críticas de sobrevivência, propensas a legitimar a violência. Embora ambas as coisas eventualmente tenham que ser levadas em consideração, também.
Moral objectivism may refer to:
Robust moral realism, the meta-ethical position that ethical sentences express factual propositions about robust or mind-independent features of the world, and that some such propositions are true.
Moral universalism (also called minimal or moderate moral realism), the meta-ethical position that some system of ethics or morality is universally valid, without any further semantic or metaphysical claim.
http://plato.stanford.edu/entries/moral-relativism/#MixPosRapBetRelObj
Descriptive Moral Relativism (DMR). As a matter of empirical fact, there are deep and widespread moral disagreements across different societies, and these disagreements are much more significant than whatever agreements there may be.
Metaethical Moral Relativism (MMR). The truth or falsity of moral judgments, or their justification, is not absolute or universal, but is relative to the traditions, convictions, or practices of a group of persons.
7. Mixed Positions: A Rapprochement between Relativists and Objectivists?
Discussions of moral relativism often assume (as mostly has been assumed here so far) that moral relativism is the correct account of all moral judgments or of none. But perhaps it is the correct account of some moral judgments but not others or, more vaguely, the best account of morality vis-à-vis these issues would acknowledge both relativist and objectivist elements. Such a mixed position might be motivated by some of the philosophical questions already raised (recall also the suggestion in the section on experimental philosophy that some people may be “meta-ethical pluralists”). On the empirical level, it might be thought that there are many substantial moral disagreements but also some striking moral agreements across different societies. On the metaethical plane, it might be supposed that, though many disagreements are not likely to be rationally resolved, other disagreements may be (and perhaps that the cross-cultural agreements we find have a rational basis). The first point would lead to a weaker form of DMR The second point, the more important one, would imply a modified form of MMR (see the suggestions in the last paragraph of section 4 *****). This approach has attracted some support, interestingly, from both sides of the debate: relativists who have embraced an objective constraint, and (more commonly) objectivists who have allowed some relativist dimensions.
...
***** Finally, some objections maintain that proponents of DMR fail to recognize that there is significant empirical evidence for considerable moral agreement across different societies. Several kinds of agreement have been proposed. For example, the role-reversal test implied by the Golden Rule (“Do unto others as you would have them do unto you”) has been prominent beyond Western traditions: A version of it is also endorsed in The Analects of Confucius, some traditional Buddhist texts, and elsewhere (see Wattles 1996). Another form of this claim maintains that basic moral prohibitions against lying, stealing, adultery, killing human beings, etc. are found across many different and otherwise diverse societies. Yet another contention is that the international human rights movement indicates substantial moral agreement (see Donnelly 2013: ch. 4). On the basis of evidence of this kind, some such as Sissela Bok (1995) and Michael Walzer (1994) have proposed that there is a universal minimal morality, whatever other moral differences there may be. In a similar vein, Hans Küng (1996) and others have maintained that there is a common “global ethic” across the world's major religious traditions regarding respect for human life, distributive justice, truthfulness, and the moral equality of men and women. These contentions, which have received increased support in recent years, must be subjected to the same critical scrutiny as those put forward in support of DMR. However, if they were correct, they would cast doubt on DMR. In the final analysis, there may be significant agreements as well as disagreements in people's moral values. If this were the case, it would complicate the empirical background of the metaethical debate, and it might suggest the need for more nuanced alternatives than the standard positions.
...