Publication Cover
Studies in Psychology
Estudios de Psicología
Volume 44, 2023 - Issue 2-3
583
Views
0
CrossRef citations to date
0
Altmetric
Research Article

Humanism or transhumanism? Scissions of thought and the technological drift of science, a crisis for psychology (¿Humanismo o transhumanismo? Las escisiones del pensamiento y la deriva tecnológica de la ciencia, una crisis para la psicología)

ORCID Icon & ORCID Icon
Pages 157-251 | Received 18 Aug 2023, Accepted 24 Aug 2023, Published online: 27 Nov 2023

ABSTRACT

This article argues that there is a crisis in the conception of what is human, resulting from the growing tendency to uncritically accept the assumptions of the technological paradigm or episteme and the model of the future that this approach takes for granted. In the authors’ opinion, this state of affairs derives from successive scissions that have taken place in the history of our development as a species (the scission of the cerebral hemispheres) and in the history of thought and science (first-order cybernetics versus second-order cybernetics; inert matter versus living matter; the technological versus the organic; natural intelligence versus artificial intelligence). In the face of the apparent triumph of the mechanistic assumptions that support transhumanism, the principles that have governed the origin and evolution of life are recalled, as well as the constitutive principles of the human psyche, among which the construction of consciousness and freedom, called for from Vygotskian Acmeist psychology, should be highlighted. These principles are those which, in the authors’ opinion, should govern any alternative for the future.

RESUMEN

Se plantea en este artículo que hay una crisis en la concepción de lo humano, fruto de la tendencia creciente a aceptar acríticamente los supuestos del paradigma o epistema tecnológico y el modelo de futuro que en este enfoque se da por asumido. A juicio de los autores, este estado de cosas deriva de sucesivas escisiones que han tenido lugar en la historia de nuestra constitución como especie (la escisión de los hemisferios cerebrales) y en la historia del pensamiento y la ciencia (cibernética de primer orden frente a la de segundo orden; materia inerte frente a materia viva; lo tecnológico frente a lo orgánico; inteligencia natural frente a inteligencia artificial). Ante el aparente triunfo de los supuestos mecanicistas que soportan el transhumanismo, se recuerdan los principios que han regido el origen y la evolución de la vida, así como los principios constitutivos de la psique humana entre los que cabe destacar la construcción de la conciencia y la libertad, reclamados desde la psicología acmeísta vygotskiana. Esos principios son los que a juicio de los autores deben regir la alternativa de futuro.

In the current arena of scientific and social thought, there is a confrontation between two great epistemologies or visions of the human condition: the evolutionary-humanistic vision and the technological vision. We believe that underlying this confrontation are a series of structural or historical scissions — with their corresponding attempts at integration or synthesis — that have been shaping scientific thought and, by extension, psychological thought itself. We have focused our attention on those that seem to us most relevant for understanding the scope of a crisis that is both theoretical (epistemological models) and practical (models of action towards the future).

The first of these, hemispheric scission, is inscribed in the very structure of the human brain and is predetermined by the evolution of the species that preceded us, forming a brain that functions from two complementary systems of approach to reality. We will see how human historical cultures have been shaping inter-hemispheric brain relations and determining the character of our current approach to reality.

The second scission, in cybernetics, resulted from an intense debate that this same discipline raised by opening a space in which, for the first time, all the major problems of science could converge, from philosophical and ethical problems to highly technical problems at the forefront of logical and mathematical thought.

Thirdly, we will refer to a movement that took place as a result of the advances in symbiogenetic biology and the exploration of life on other planets. A proposal for the convergence of research in the sciences of inert matter and living matter then took shape in the idea of Gaia. However, this reintegrating process fails to be accepted by mainstream science, which will lead to a technological drift in the conception of life.

Fourthly, we will show how the processes of instrumental mediation, which had accompanied our phylogenesis and our historical genesis, have expanded in such a way that the instrumental defines the human evolutionary process itself, so that technology is excised from life to impose its design models on the human, as in the case of transhumanism. We will analyse the confrontation between two epistemological positions: one considers living beings as a modality of the technological; the other considers the technological as a material extension of the living functional system.

Fifth and finally, and using dialogical language as an example, we will address the most recent scission: that of natural intelligence and artificial intelligence. At the time, the latter marked the emergence of the last great psychological paradigm, the computational metaphor of the mind, which today has acquired the status and power to shape social and industrial organization and paradigmatically define the future.

These five scissions predetermine the theoretical and evolutionary models of the human and the scientific choices that will determine the future. At the end of the article we therefore arrive at the main problem: to which future model for the human and for the world do these scissions and visions of reality lead? Since this problem is beyond the scope of this article, we will limit ourselves to advancing a thesis that is neither new nor revolutionary but which we believe needs to be recalled. The evolution of life has made its way on Earth for 4,000 million years and has shaped the planet itself and all the nature that inhabits it. We believe that this very long history has amply proven its consistency and effectiveness, and that nothing could better demonstrate the evolutionary option as opposed to the technological one. Looking at the past and focusing on what affects us most directly as a species, it is obvious that we humans ourselves are not the result of a technological process but of an evolutionary process. However, the technological and transhuman episteme proposes an inversion of the terms as we move towards the future: it proposes to integrate or reduce life to the technological model by means of various engineering techniques, without excluding humans themselves from this approach, and postulating in its most extreme form the total substitution of the living for the technological.

Making distinctions

Etymologically, the term ‘science’ comes from a Latin verbal root that means to split, divide, separate. It is logical, therefore, that the act of analysing implies a scission, for indeed the first step in science is to make distinctions, to separate or split something from the rest. Inevitably, in theoretical work, analysis precedes synthesis, for the simple reason that it is not possible to establish categories or think about concepts without first making such distinctions. Although many of them are shown a posteriori to be hasty, crude or erroneous and become subject to revision, they almost always constitute a productive first step that allows the complexity of reality to be laid bare. It is only when, after fulfilling their analytical function, these distinctions become so epistemologically conservative and irrationally resistant to change that their presence can become toxic and harmful to the system of knowledge.

The separation of physical and biological processes from mental processes, which took hold in Western thought at the same time that modern sciences emerged, seems to present, as McGilchrist (Citation2019) points out, a certain schizoid character. Does that mean that the rational Western culture that built sciences is pathological and tends epistemologically to schizophrenia? The radical distinctions that have presided over the history of thought would lead one to think so. The scissions between mind and body, between objects and concepts, are precisely two of the distinctive characteristics of humans: we are still animals and at the same time we are not, we have generated higher psychological functions, we are still body in everything (embodied), and at the same time we are mind in everything, even in the most basic processes such as moving or not moving our hand (Luria, Citation1978), and writing or not writing a certain letter. The interweaving of those dissociated or split parts would be the explanatory object of Vygotskyan theory (which we assume to be known, but see del Río & Álvarez, Citation2007a; Vygotski, Citation1990a, Citation1990b, Citation1995b, Citation1996, Citation1997; Vygotski & Luria, Citation2007). For the moment we only wish to point out that the tensions provoked by these radical and opposing distinctions imprint on us that schizoid tendency pointed out by McGilchrist and which, according to this author, affected Descartes’ thought very particularly. Moreover, as Vygotsky pointed out, it structurally affects the human itself (Zavershneva & van der Veer, Citation2018): ‘Splitting [scission in our own terms] is inherent to normal consciousness’ (p. 333). ‘Everyone carries in himself […] his schizophrenia’ (p. 145).

Psychology is confronted from the very beginning with the problem bequeathed to us by Descartes: the parallel vision of the life of the body and that of the soul (the psyche) and the objectification of both. Vygotsky considered this, which he called ‘the psychophysical problem’, to be the fundamental problem of psychology, and he effectively traced it back to Descartes’ metaphysics.

However, at the end of his work, in 1932, Vygotsky, who was still trying to find a unifying path along the lines proposed — and in his opinion unfinished — by Spinoza, changed his perspective: instead of the soul-body relationship, he proposed to study a more operational and accessible relationship to psychological research, that between speech and thought (Vygotski, Citation1990c). To the extent that speech is clearly a physiological movement that is perceived externally and that, internally, inner speech is also a neuronal movement, a mental action, language would act as a bridge. This movement, physical and organic, would avoid the Cartesian parallelism. The psyche can be seen as body, and the body as psyche. What Vygotsky intended to avoid with this approach is that if we argue that every psychic process has a material and organic character, but the mechanisms by which the material and the organic are expressed in the psychic are not carefully explained, the matter is resolved by cancelling the mental. Or, in the same way, by supposing that everything psychic is mental, one would come, as idealism did, to reduce everything psychic to immaterial.

Even thought requires motor action, whether this is external and manual (to register an idea requires going to paper and pen or to the keyboard to write it down) or external and phonatory, such as external speech. There is also inner movement, through the excitation of inner speech neurons: inner speech can actually be traced back to synaptic movement in the brain. This is a different movement from that exerted by our organism externally, but there is no doubt of its reality. Language provides the brain with an operator to handle a new type of object or entity of reality: concepts, categories, ideas that do not cease to operate as neural and, therefore, physical patterns or phenomena. This actually creates a new ecology of distinct entities (the imaginary), distributed in the synapses of the brain, and a new plane of behaviour in that ecology. Both our actions in the physical exterior and in the psychophysical interior are defined by movement: process and structure are articulated in a dynamic whole.

This new internal world, created thanks to language in the human brain, allows the future, identity, social relations, everything, to be contemplated and operated from consciousness. Our species creates, together with the plane of the external present of things here and now, a new plane to re-present them, what Vygotsky and Luria initially called the plane of the future (Vygotski & Luria, Citation2007; Vygotsky & Luria, Citation1994). In this new plane, and through these new processes, the human being can begin to direct their destiny: ‘destiny becomes a conscious part of the personality’ (Zavershneva & van der Veer, Citation2018, p. 383).

The hemispheric scission. A paradoxical and bilingual brain

The paradoxical presentation of reality as both objetal and phenomenic, as palpable and with a physical effect on the organism and at the same time as psychically perceptible, linked and related to the mind, is a divergence that not only science has had to face in order to develop its project of knowledge, but also animal organisms and human beings themselves have had to face in order to build their neurological system of awareness, action and experience (to cite the terms defined by the evolutionary biologist Faustino Cordón, Citation1977, Citation1990a, Citation1990b). Could this double tendency to see things from analysis (which leads us to dismantle them) and from synthesis (which leads us to reintegrate them) be something structural of our mind? Could this tendency to divide reality and separate it, on the one hand, and to unite it and contemplate it as a whole on the other have been embodied in the structure of our brain? To what extent do dualism and objectalization maintain some kind of relation or correspondence with our neuropsychological organization?

Probably the most nuanced, up-to-date and plausible answers to these questions come from the neuropsychology of the cerebral hemispheres, as we will see below.

Sperry and Gazzaniga’s pioneering research on the functioning of the two cerebral hemispheres and the differences between people with split and unsplit brains (Gazzaniga et al., Citation1962; Sperry, Citation1968) began to unveil a whole new perspective on the human brain. The hemispheric research of the last decades conveys a sensation similar to the one Freud awakened when he discovered a world in the unconscious. Now, not so distant and not so different from the unconscious, the unknown world that opens before our eyes is that of the right cerebral hemisphere.

Collectively, the specialists of hemispheric neuropsychology are showing us a brain that is more unknown than we thought. And this process of (re)discovery coincides with another process, no less relevant and which we believe to be closely related: the determining role played by cultures in the construction and architecture of the bi-hemispheric brain.

For some researchers, the right hemisphere could in fact be equated with Freud’s unconscious, and would show an ‘immature’ side as opposed to the left hemisphere, which would be in their view the ‘mature’ one (Schiffer, Citation2000). For the neurologist Jill B. Taylor, who traumatically lost the functioning of her left hemisphere, the brain actually shows a bimodal model, which she simplifies into four submodules (two submodules per hemisphere, one emotional and one rational). According to Taylor, both hemispheres perform two different versions of the major cognitive processes (a ‘thinking character’ in each hemisphere) and directive processes (an ‘emotional character’ in each hemisphere; Taylor, Citation2021).

In his magnum opus, Iain McGilchrist (Citation2021a, Citation2021b) has conducted an exhaustive review of the literature on the role of the cerebral hemispheres from a global and historical perspective, that is, by relating hemispheric organization to the process of historical and cultural development of the brain. We find this perspective particularly enlightening because of its convergence with the Vygotskian perspective that we follow in our approach to psychic changes. In different but convergent ways, the research on the hemispheric organization of the brain and the influence of history on it proposed by McGilchrist, and the research on higher psychological functions and the influence of culture and history on them conducted by Vygotsky, converge in this perspective that links our mind with human history.

The hemispheric organization of the brain seems to have been designing differentiated structures to achieve functional independence between one and the other. As McGilchrist (Citation2021a) mentions:

In humans only 2% of neurons in either hemisphere have fibres that cross the corpus callosum, so there is already considerable functional independence (p. 95). The hemispheres differ in size, weight, shape, sulcal-gyral pattern (the convolutions on the cortical surface), neuronal number, cytoarchitecture (the structure at the cellular level), neuronal cell size, dendritic tree features, grey to white matter ratio, response to neuroendocrine hormones and degree of reliance on different neurotransmitters. […] This arrangement is more efficient for two main reasons: first, the avoidance of interference, especially in complex cognition; and second, a potential doubling of working capacity (McGilchrist, Citation2021a, pp. 96–97).

Hemispheric lateralization not only has a historical trajectory but also an animal trajectory that predates our own phylogenesis. McGilchrist emphasizes that hemispheric brain lateralization is very ancient in the evolutionary development of species, that it is accentuated in mammals and even more so in apes and anthropoids, and that it has two distinct and complementary attentional systems for approaching reality. All this seems to have constituted a decisive evolutionary advantage that more recent species have continued and in general have accentuated.

Brain organization in two hemispheres would therefore not be a problematic evolutionary choice but a successful course. Human phylogenesis involved an acceleration and intensification of the process, and that as both frontal lobes grew, their hemispheric specialization also grew and became more accentuated.

The historical footprint of hemispheres

Did this process of specialization and lateralization stop once the morphology of the human species had been established? It seems not. As we have just pointed out, McGilchrist (Citation2019, Citation2021a, Citation2021b) has reviewed and analysed how the historical evolutions of human thought are related to the recent formation and transformation of our cerebral hemispheres. The tendencies and focalizations that cultures imprint on their psychic activity over the course of history would have repercussions on the neuropsychological configuration of the human hemispheric organization. Cultural systems may privilege certain tendencies towards progressive lateralization, even to a degree that alters the equilibrium and borders on the pathological (McGilchrist, Citation2019, p. 11). In certain cultures (or in certain individuals), driven by specific functional uses (or abuses) that privilege the action of one or the other hemisphere, and through a ‘snowball effect’, a slide towards one of the two hemispheric modalities could take place.

In his journey through human history and culture, McGilchrist provides a psychic analysis, articulating it with general and philosophical thought, which he links to hemispheric neuropsychological trends and organization. The richness of this review and reflection makes it advisable to go to the source; we will only reflect here some observations to understand the meaning of the epistemological split that these changes imprint on Western culture first and, from there, on the process of both thought and social and cultural organization that human civilizations present nowadays.

To explain hemisphere behaviour, McGilchrist borrows a metaphor from Nietzsche (as cited in McGilchrist, Citation2019, p. 14). Each individual brain, McGilchrist points out, is governed, in principle, from its right hemisphere (hereafter RH), which would be like a ruler informed by a highly competent minister, the left hemisphere (hereafter LH). The competence of the latter is, however, very particular, and his personality has different tendencies from those of the ruler. The ruler, wise by trade, understands that his minister is not lying to him but that he is telling him a very idiosyncratic truth, very partial, although ultimately useful if interpreted and compensated with a more integral vision. It is on these limited and contradictory bases that this ruler must govern, and on which we humans must live, think, feel and act. But we will never have information as complete and precise as the LH seeks, nor as realistic and global as the RH desires.

Long before we had anything other than the most rudimentary knowledge of hemisphere difference, a number of philosophers – Pascal, Spinoza, Kant, Goethe, Schopenhauer, Nietzsche, Bergson and Scheler among them – were able to intuit that there are two fundamentally distinct ways in which we approach the world, what Bergson called ‘two different orders of reality’ (McGilchrist, Citation2021a, p. 53).

[…] since each hemisphere on its own is perfectly capable of yielding a coherent experiential world, the conclusion is therefore logically inescapable: that this situation should give rise to two different experiential worlds, with different qualities. It couldn’t be otherwise. So there should be evidence that this is indeed the case. Is there? Evidence from a wealth of sources, including brain insults (trauma, stroke, tumour, etc), neuropsychological experiments in normal and post-commissurotomy (‘split-brain’) subjects, and brain imaging in a range of modalities, suggests, precisely, that this is the case. […] that paradox is as an indicator that we are dealing with two apparently valid world-pictures which yet do not concur (McGilchrist, Citation2019, pp. 50–52).

The ‘epistemic binocularity’ of our hemispheres should, similarly to how our eyes operate, provide us with an excellent vision in relief and depth, a richer perception of reality that would allow us both to evaluate what we see and to manage it. For the ‘brain’s left hemisphere is designed to help us ap-prehend — and thus manipulate — the world; the right hemisphere to com-prehend it — see it all for what it is’ (McGilchrist, Citation2019, p. 11).

Two personalities with a strong character

The metaphor borrowed from Nietzsche already hints that McGilchrist considers each hemisphere in personal and dramatic terms, as if each of them housed two very well-defined and well-articulated psychological personalities.

Thus, while the RH is distinguished by a flexible stance towards reality, the LH personality by contrast is categorical and self-affirmative, and is characterized by fundamentalism (feeling in possession of the truth) and by repression (McGilchrist, Citation2021a). The LH is categorical and bipolar; it is explicit, concrete, and eliminates ambiguity or nuance, and seeks to control the truth and have power over it, but ‘in the end it is the right hemisphere that understands’ (McGilchrist, Citation2021a, p. 1954). In the same vein, the RH deals openly with any new experience of any kind, but, as soon as it becomes familiar or habitual, the management of the experience passes to the LH. This may explain why some of us, or at certain times or others, are more or less open to reality and people (RH), and more in need of security and of reducing uncertainty and dissonance by whatever means (LH).

The RH allows for a greater connection with the present and with the non-objectal reality (with others and with the cosmos, which we could ascribe to the field of spirituality).

The personal accounts of Jill Bolte Taylor and Steve McKinnell, both of whom experienced a left hemisphere stroke, reveal that they felt an increase in spirituality, a new interest in meditation and an increased feeling of empathy following their stroke: according to Taylor, if she had to pick one word to describe the intent of her right hemisphere, she ‘would have to choose compassion’. (McGilchrist, Citation2021a, p. 1874).

The two personalities are more clearly expressed and better appreciated if the right hemisphere is experimentally stimulated, or if the left hemisphere is de-stimulated. In such cases, the subject increases their sensations in smells, pressures, sounds or visual perception of objects (McKinnell, Citation2016). McGilchrist comments that this sensory increase is accompanied by a new awareness and increased mindfulness (Citation2021b, p. 2420). And, as would be logical and to be expected, the excitation of LH and the depression of RH produce opposite effects: detachment from reality or unreality (McGilchrist, Citation2021a, p. 292).

In the same line, the author points out that while the LH relates to reality from control and disengagement, the RH does so from interest, care and involvement.

The world of the left hemisphere, depending on denotative language and abstraction, yields clarity and power to manipulating things, that are known, fixed, static, isolated, decontextualised, explicit, disembodied, general in nature but ultimately lifeless. The right hemisphere, by contrast, yields a world of individual, changing, evolving, interconnected, implicit, incarnate, living beings within the context of the lived world, but in the nature of things never fully graspable, always imperfectly known — and to this world it exists in a relationship of care. (McGilchrist, Citation2019, p. 174)

Could historical cultures, so to speak, conduct ‘cultural-historical experiments’ by stimulating one hemisphere or de-stimulating the opposite one? Considering the differences between the neuropsychological modalities of more verbal and more visual subjects, it is known that children with eidetic capacity — estimated between 10% and 12% of the Western population — lose it when they start schooling (Denis, Citation1979), except in very singular cases. That is, it would seem that the patterns of conceptual verbal memory and rational association that schooling sets in motion interfere by reducing children’s synaesthesias and eidetic memory. Luria and Vygotsky followed for years the case of one such subject with a high level of synaesthesias and eidetic memory as an adult, that of the mnemonist journalist Solomon Shereshevskii (Luria, Citation1968). In an intuitive and anticipatory way, what they were looking for in this case, and in others that also showed unique forms of psychic functioning, was an understanding of the global psychic processes that current research is ascribing to hemispheric differentiation.

In relation to an analogous process, Gavriel Salomon (Citation1979) distinguished two pathways to audiovisual representation in child development. On the one hand, the prolongation modality, which makes the visual or auditory representation extend analogically, from the natural modality of our sensory systems, to capture reality: children who had not yet acquired the conventions of cinematographic and audiovisual language could interpret what they saw on the screen by simply extending, so to speak, their natural schemes of perception. On the other hand, the short-circuit mode, in which the natural reference is broken by convention, especially if the degree of grammatical mediations and coding conventions is very high: representation becomes abstract and arbitrary in cinema or television, as it happens in most verbal processes. In this modality, children, pushed by school and audiovisual culture, gradually abandon the first option and reinforce the second.

Everything appears to indicate that when cultures and individuals, whether involuntarily or informally, or through planned developmental programmes, follow different cultural developmental trajectories, they also face an evolutionary disjunctive for their cerebral and hemispheric development. In relation to this same type of processes, it is interesting to recall that the filmmaker Eisenstein proposed (Eisenstein, Citation2002, Citation2008; Vassilieva, Citation2006) to provoke synaesthetic experiences, which could externally reinforce sensory thinking and take the viewer back to earlier evolutionary moments (Vassilieva, Citation2017, Citation2019). A proposal probably linked to the joint work Eisenstein was doing with Alexander Luria and Lev Vygotsky on the holistic mind:

[…] doomed to enter the reality of sensuous thought, where he will lose the distinction between subjective and objective, where his capacity to perceive the whole through its part will be heightened (pars pro toto), where colors will be singing and where sounds will acquire shape (synesthesia), where the word will compel him to react as if the event described by this word did happen in reality (hypnosis) (S. Eisenstein, Papers in the Russian Government Archive of Literature and Art (RGALI), 1923, pp. 2–247. as cited in Vassilieva, Citation2019).

The characteristics of synaesthesias and eidetic images point to a trait of the right hemisphere noted by specialists: it does not integrate parts to reach the totality but is itself integral and attunes to the integral. What it reveals is not first passed through the state of separation: it neither separates nor needs to synthesize, since it always relates directly to resonances and totalities.

As we have seen, each hemisphere has a complete and structured psychic organization, its emotions, its postural and attitudinal preferences and its ways of acting. As Taylor (Citation2021) reminds us, the LH also has its impulsive part: it is not pure representation. It must be seen in action. Its own emotions move it, articulated in two main stances before its main task of preserving the organism, that of fight and that of flight. Extrapolating on Taylor’s observation, what would be the emotions most directly linked to fight and flight? Anger and fear, activism, problem-solving efficiency and the wayward offspring of anger and fear: anxiety, guilt, resentment, hatred. The LH seems to be a personality with which conflict should be avoided. And although we have tended to analyse it mainly in terms of the analytical and representational capacities at which it excels, if we take imbalances and biases into account, we must also attend to the emotions and stances (attitudes) that are specific to it. In this perspective, it is not difficult to imagine a rational objectal mentality, driven exclusively by the emotions of fight and flight, fear and anger.

Everything seems to suggest that these powerful but biased options of the LH, vital for the preservation of the organism, need to be guided, appeased, directed and regulated so that their action, which is totally necessary, does not get out of control and become destructive, but rather provides preservation and efficacy. The LH needs a guide, which would be the RH. The reader could rightly wonder what would happen (or is happening) if the emotional hemispheric orientations, transferred to cultural modes (or those of groups of power and political, economic and media influence) more prone to a certain way of approaching reality, are imposed and generalized in an unbalanced way.

It is often argued that emotions are hardly compatible with rationality. McGilchrist opportunely reminds us that the basis of the brain and the organism is emotional and that we cannot conceptualize emotions, that is, we cannot reduce them to cognitive entities. This takes us to a terrain related to the work of Henri Wallon (Wallon, Citation1934; Zazzo, Citation2004) or, more recently, of Damasio (Citation2003), Panksep & Biven (Citation2012) or Solms (Citation2021), but it also refers us to Vygotsky’s last stage (del Río & Álvarez, Citation2021; Vassilieva & Zavershneva, Citation2020). The resonant, the emotional and the postural of the neurological system thus do not seem directly commensurable with the conceptual. They may articulate with each other, but they are not reducible to each other.

Moving in step with history: generational minds and mindsets

In the crucial task of analysing how the various higher functions bring us closer to reality, McGilchrist argues that both hemispheres manage…

the main portals of access to knowledge – attention, perception, judgments formed on those perceptions, social and emotional intelligence, cognitive intelligence and creativity – while both hemispheres contribute, the right hemisphere is in every case superior to the left. Only in the business of grasping something in order to use it is the left hemisphere superior. (McGilchrist, Citation2019, p. xxvi)

The various modes developed by cultures have promoted and enriched the capacities of both hemispheres but have not always done so in a balanced way, and have forced their intrinsic tendencies to the point of compromising their initial collaboration: McGilchrist (Citation2019) notes that the cultures of the Western world have promoted the development of the hemispheres in an alternation between the predominance of one or the other, with some periods of equilibrium. The promotion of the right hemisphere would have predominated in certain eras, such as the Renaissance, while the predominance of the left hemisphere was more intense during the Scientific Revolution and the Enlightenment, with the brief interlude of Romanticism, naturally. Nowadays, the left hemisphere has imposed a determinant and increasing dominance (McGilchrist, Citation2019).

If we follow McGilchrist’s logic of analysis, we should note similar differences in the hemispheres as those that can be analysed in civilizations and cultures. For example, we could conclude that a good part of the West has been mostly inclined towards reason, towards tangible, economic and technological products: currency, the number, the algorithm and the bit; the gene, the atom and its subparticles, etc.

Other cultures, by no means rationally or technologically incapable, may have had a greater traditional inclination to the RH, to myth and ritual, to apologue, proverb and metaphor, allegory and drama, and to ungraspable totalities. However, the process of economic globalization that has taken place over the last century, and which has inevitably been linked to a process of cultural globalization, may have had the effect of bringing almost all cultures rapidly closer to the ‘rational’ pattern.

Vygotsky and Luria’s neuropsychological approach postulates that the brain has been shaped throughout the phylogenetic and cultural history of behaviour (Luria, Citation1979; Vygotski, Citation1995a, Citation1997) and that its evolution follows the laws of the construction of new layers over the previous ones (accretion for Pribram, Citation1986). Thus, taking the relationship between cultures and the possible hemispheric biases that McGilchrist draws in The Master and His Emissary (Citation2019) into account would not only be relevant to understand our past and our present but also to design the future of our brain. We could say the same with respect to the ontogenetic itinerary that each person may have followed in the construction of their mind and personal brain, and with respect to the project of psychic and spiritual development that would be appropriate for him or her to follow into the future.

The French historiographic tradition of the École des Annales supported the idea that the main change brought about by history was not so much in facts or things as in the transformation of the mind itself in each epoch, coining the term of history of mentalities (Febvre, Citation1942): hemispheric lateralization reinforces this perspective. In an ethnographic research, Jill Taylor (Citation2021) related the hemispheric profiles and the characteristics of the cultural contexts of the generations of Americans of the last 100 years through the use of life histories. Furthering this idea, but without going so far as to establish any neuropsychological correlation, the change in the repertoire of mediations present in the cultural context of several generations of Castilians was the subject of an investigation in which the authors of this paper also found profiles of what we then called generational minds (Álvarez & del Río, Citation1999).

Concepts such as generational minds or distinct historical-cultural minds are useful for conceiving a less universal and static scenario than that conveyed by fixist postulates about the mind: psychological functions and the configuration of the human mind are conceived rather as a flexible, changing and diversifiable construction.

A difficult balance

In the LH’s perspective, the paradoxes and mysteries of quantum physics are as difficult to grasp as the intentions and tendencies of biology and the incessant flow of life. If certain scientific visions privilege the LH — which seems more than likely — the current fragmentation of the sciences would not be accidental: those that require a more holistic, more synaesthetic vision, which privilege movement and relation over statism and separation, will be seen as uncomfortable (even ‘unscientific’) by those oriented in the opposite direction.

We have already pointed out that the feeling hemisphere of our brain, the RH, connects us with the world in its globality, both the global cosmos and the social others. The LH, developed on the basis of the neurophysiology of action and manipulation, provides us with great executive capacity; without it, as Taylor (Citation2021) points out, we would be totally dysfunctional in the external world.

As McGilchrist characterizes it, the LH world would initiate a path towards the mental, which would eventually lead to validating the division between the noumenal and phenomenaic worlds as distinguished by Plato, and between the material and mental worlds as distinguished by Descartes. In the vision of much of current science, this scission manifests itself as a dual presence of the internal as informational, and the external as mechanized, technological and bureaucratized. In general terms we can conceive the RH as a brain oriented to relationship and flow, and the LH as a brain oriented to action and things. As Pribram (Citation1986) showed in his time, our brains processed space-time and progressive adjustment when our cultures were still discovering Euclidean geometry and Newtonian physics. Coming close to an understanding of neurological space-time would require at least another kind of mathematics, such as Fourier derivatives or fuzzy logic, Pribram proposes. If this were so, by the time our cultural LH (built with the external historical psychological instruments of internalized reason) started to provide us with logical systems, valuable but still improvable, it was millennia that the HD had been operating in tune to other, more complex and flexible parameters built by biology.

In other words, the brain knows unconsciously from the RH things that the LH gradually discovers thanks to the advances that mediation provides to culture and science. The divergence between the two versions can produce a miscommunication that, according to what has been exposed so far, seems to have become chronic and conflictive in today’s culture.

In short, the logic of the concrete and of the scission that prioritizes the LH is articulated around the mechanics of control. On the contrary, the logic of the holistic is linked to the interaction and integration that the RH prioritizes, which is driven by relationship and contact. Following this same pattern, the RH is willing to integrate with the LH, but the LH is often not in equal measure inclined to integrate with the RH, but rather the other way around.

McGilchrist (Citation2019) considers that Nietzsche’s metaphor has come true in our civilization: the prime minister (LH), dazzled with his own competence and precision, has begun to despise the for him incomprehensible, primitive, diffuse and arcane mental imperfection of the ruler (RH), and tries to supplant him in the exercise of power.

But if, as McGilchrist suggests, hemispheric divergence already made sense and functioned in pre-human evolution, it would be logical to expect it to do so in human evolution as well. In the original natural environments, in highly balanced biosystems or — in the human case — in most traditional cultures, hemispheric divergence is more nuanced and flexible than it seems; it is not as extreme and as monochromatic as the more conceptivist views of rationality. We can even think of the brain as taking advantage of contradictions and paradoxes, so that it need not perpetuate the old reason/feeling, rationality/intuition dichotomies (McGilchrist, Citation2019, p. xii); that is, it has achieved great competence in articulating these two very diverse neuropsychological modalities.

In balanced cultures the hemispheres have thus maintained a balance that allows them to work as a team, within the parameters we recognize as ‘normality’. In cases of schizophrenia, the balance is broken, and hemispheric asymmetry becomes very marked.

Language, literacy and hemispheric lateralization

The protagonist role played by language in the process of hemispheric lateralization in the human species cannot be forgotten. Vygotsky ascribed to language a central role in the development of all higher functions, and this centrality of language is explained by the fact that it overlaps exactly with the centrality of action. Along these lines, Ardila relates the role of mirror neurons with the organization and understanding of verbs (Ardila, Citation2012a, Citation2012b), so that objectal action and social interaction cannot be neurologically separated from language action. In both premotor cortex and inferior parietal cortex, mirror neurons reflect observed events as inner actions and, as has been shown with PET-recorded stimulation, it can be inferred that in humans there is a mirror system of gestural recognition, which includes Broca’s linguistic area. Neurologically, gestural and verbal actions overlap and converge. Moreover, mirror neurons in Broca’s area suggest that the internal representation of actions is originally linked to the development of grammar (Ardila, Citation2012a).

The linearity of action is thus linked to the linearity of language, and both are necessary to establish bridges with oneself and with others. Language interlocks consciousness sequentially.

We do not value the sequential and temporal vision, which rests in the LH, until we lose it: ‘Without the linearity of time that my left-brain cells had so effectively engineered, all I had was the vastness of the present moment […] complete absence of anger and fear […] blissful euphoria’ (Taylor, Citation2021, p. 50).

Jill Taylor also relates that, after the massive left hemisphere stroke, ‘I totally lost the ability to communicate with others, and even with myself. Not only could I not speak or understand when others spoke to me, but I could not distinguish letters or numbers as meaningful symbols’ (Taylor, Citation2021, p. 49).

Throughout his enormous body of work, David Olson has defended the central role of writing, and more specifically of alphabetic writing, in the development of scientific thought and Western culture (see, for example, Olson, Citation2016), implicitly and sometimes explicitly questioning the ability of other modes of thought to reach the achievements that in his view have only been possible thanks to the ‘cognitive’ economy and the exercise of rationality that the alphabets originating in the Mediterranean basin provided.

Alex Kozulin added an objection to the equation ‘writing = abstraction + objectivity’ (autonomy of the text outside of speakers and context): although we can relate literacy to greater abstraction and objectivity, we cannot ascribe ‘truth’ to that objectivity (Kozulin, Citation1993). What this author is somehow claiming is that context and speakers always end up requiring hermeneutics to read any text.

Behind the literacy and writing debate, and its role in Western rational culture, is that totality and presentiality, provided by the RH, are always necessary to make sense of the efficient but categorical work with significance, provided by the LH. The LH provides meaning, and the RH provides sense.

The changing brain and hemispheric flexibility

From a historical-cultural perspective, the fact that writing is imagistic and ideographic instead of alphabetic, that posturality and linguistic embodiment play a greater or lesser role, or that speech is more gestural and motor, tonic-musical and onomatopoeic, is reflected in the hemispheric brain organization. Thus, Tsunoda (Citation1985), in studying the different hemispheric lateralization between Westerners and Japanese, pointed out that sonority, posturality and other factors considered extralinguistic in the West are nevertheless so closely linked to the culture/language complex, and are so distinctive and indivisible, that not taking them into account prevents understanding the links between language and the processes that accompany it in the RH. They also take place in Western languages, albeit in different ways in each case.

Updating the Vygotskian perspective in line with the horizons opened by hemispheric neuropsychology, we could consider the tendency to left hemispheric lateralization as a historical-cultural peculiarity, and not so much as a confrontation between two incompatible positions towards reality.

If we contemplate human cultures in all their amplitude, it is easy to see that they have not extended their mediations only in the field of rationality and science. The cultural fabric — more invisible to science and therefore much less investigated and known — is immensely rich and varied, evident and omnipresent in everyday culture, even today’s culture. Cultures continue to treasure a varied wealth of mediations to reinforce and direct empathy and emotional interaction with others, to trace clues to the future and explore paths of behaviour not yet travelled but intuited or felt, such as myths or virtues, religion, poetry, all the arts and the very rich folklore (Álvarez & del Río, Citation1999; del Río & Álvarez, Citation1995, Citation2007b). Therefore, the dense fabric of cultural mediations has effectively served both LH and RH, and it would therefore be convenient to pay attention to the fabric of higher functions alternative or complementary to the intellectual ones (functions of feeling, as Vygotsky called them). The psychotechnics that various cultures have developed to mediate the holistic psyche of the RH constitute a valuable and indispensable legacy that science (especially psychology) has overlooked and that today have become even more valuable. This lesser presence in objective science of what we could consider the domain of work of the RH has indirectly caused at the same time its relative neuropsychological invisibility. Balancing this situation would mean that today the efforts of human cultures and sciences should not only focus on the left hemisphere but at least as much on the right, developing new psychotechnics, new cultural connections that allow the reconstruction and reinforcement of the interhemispheric bridge.

Could we expect the brain to become more articulate, our mind more holistic?

When the filmmaker Sergei Eisenstein died in 1948, his brain was measured and photographed. The photographs were kept by Alexander Luria, the neuropsychologist, who had been his friend for thirty years, and who used to show them to his students to illustrate the asymmetry of the cerebral hemispheres. Eisenstein’s brain presented a right hemisphere (which is usually only slightly larger than the left) of extraordinary proportions, while his left hemisphere was of normal size (Vassilieva, Citation2019). It seems that this ‘right’ singularity of Eisenstein not only had a productive impact on the development of film language, music or editing but on the very investigation of the peculiarities of the right hemisphere, for together, Luria, Eisenstein and Vygotsky, restless explorers of psyche and culture, combined their efforts to study what they called holistic mind. Luria’s monographs of clinical cases of singular minds, often cited by his colleague Oliver Sacks, and Eisenstein’s own writings, are a testimony to that exploration. But we could also mention the relationship that Vygotsky established between the clinical pathology of schizophrenia and the schizoid tendency of every human and of science itself.

Vygotsky followed, throughout his work, two simultaneous modes of approach, either in parallel or in alternation, and at certain times apparently contradictory. One, artistic and spiritual (more marked in his initial stage and that re-emerges in the final one) and the other more rational and Hegelian in his middle and classical stage — the most popular — in which he proposes his model of mediated development of higher functions, and which is developed mainly in the second half of the 1920s. But in his final years, since 1930, and especially since 1932, he turned his eyes again to concrete psychology and the problems of sense (del Río & Álvarez, Citation2021; Vassilieva & Zavershneva, Citation2020; Zavershneva & van der Veer, Citation2018), advancing the idea of perezhivanie (Fleer et al., Citation2017; González Rey, Citation2016a, Citation2016b; Rodríguez-Arocho, Citation2019; Veresov, Citation2017) and deepening the study of drama, will, feelings and motives, and freedom. It is also at this time that he began his work in neuropsychology and medicine with Luria, and when they both undertook their exploration of the holistic mind together with Sergei Eisenstein.

In this period, Vygotsky understands that functional integration and disintegration are key to his new model of interdependent functions (functional systems). He is then concerned with mental illness and involutional impairments, and not only with developmental functional deficits as he had previously done in his work on defectology (Vygotski, Citation1997). He traces the processes of integration and rupture in the structure of language, distinguishing then a double level in thought and language, between external and internal, phasic and semantic speech. In this way, Vygotsky tries to go beyond the fundamentally rational and intellectual analysis with which he had approached the psychological functions in his previous stage, to try and penetrate into the structure and the vital and dynamic character of consciousness. He then proposed semantic analysis and acmeistic or summit psychology (del Río & Álvarez, Citation2021; Vassilieva & Zavershneva, Citation2020; Zavershneva & van der Veer, Citation2018).

His nascent work in neuropsychology confronts him with the possibility and the paradox of neurogenesis and neural plasticity, and with the need to integrate and articulate functions. In this way, he attempts to overcome his initial approach to functions as separate, as well as the rigidly localizationist and fixist neurological approaches of the time. He proposes the model of psychological systems (Vygotski, Citation1990d) and initiates a path towards an integrated vision of brain functioning that will be continued by Luria and that, in a certain way, leaves the ground prepared to understand the integration processes that the current hemispheric innovation requires. His proposal of the semantic systems of consciousness, of the construction of freedom and of the development of consciousness, constitutes a reservoir of theoretical thought available for those who wish to seek ways to solve the problems caused by scission. But this is a matter that would require another writing and occasion.

Towards hemispheric reintegration

One way or another, the emergence in humans of conscious mediated functions ushers in a new plane of evolution, understanding, and contact and interaction with reality. The real (not the perceived) world of a mediated animal is the same as that of unmediated animals (all non-humans), but the mode of contact changes. The human world is on the one hand richer, on the other hand poorer and less direct or intuitive than the animal world, less sentient, as the biologist Lynn Margulis would say. To manage to unite both planes (objectal and relational) in order not to lose anything and to maintain what has been gained in both is not an easy task. As Eisenstein rightly stated, the Grundproblem or basic problem of cinema and of all narration lies in the articulation of content (as rational understanding) and form (as sensory and affective understanding; Eisenstein, Citation2002, Citation2008). And, as McGilchrist points out, the scission has somewhat impoverished reality: ‘today we no longer live in the presence of the world, but rather in a re-presentation of it. The implication of this is that the task of the left hemisphere is to “re-present” what previously “presences” itself to the right hemisphere’ (McGilchrist, Citation2021a, Loc. 339). If we attend to the problem of the distancing that mediation would introduce in the human mind (del Río, Citation2002), this would markedly affect the LH, while the RH would preserve its capacity to make direct contact with reality.

This is important, because the introduction of mediations and cultural operators of our psyche has not always been wise, and does not always benefit us. For example, Sapolsky notes that humanity has developed an extraordinary mastery in activating stress artificially (Sapolsky, Citation1994, Citation2017). Indeed, a high efficiency has been achieved in psychotechnics that allow us to force, in a monothematic, stressed and addictive way, our work and our pleasure, our social struggles and fears. In most scenarios, the integrative and contemplative capacity of the RH are jostled and abused by the culturally cultivated hyperactivism of the LH. The fight and flight postural system is being obsessively and addictively fed back.

Insofar as the neuro-hemispheric perspective has only just opened before our eyes, and much remains to be explored, the necessary cross-cultural and trans-historical research is not yet available to provide empirical basis for these last considerations. We can merely point out that drama, virtues, poetry, meditation, art, myth, ritual, religion, are shown to be the mediated ways of the RH for our new human psyche to reconnect with other beings and with the cosmos. Or that language, logic, mechanics, data and information processing, mathematics, experimental science, are the ways for our LH to reconnect with objectal action. The RH seeks symbiosis, fusion, joy, fluid contact, joint vision, harmony, understanding and compassion, and would be more inclined to personal renunciation and entry of the other; the LH seeks concreteness and distinction, knowledge and control, competence and mastery.

Living requires both abilities, for the world is quantum and flux at the same time, and life is systemic and paradoxical. Our brain organization in two hemispheres, both necessary to live in these two realities, is shown to be highly intelligent, although it is certainly not easy to navigate and requires a great capacity for integration. It seems a rich and powerful system, but it cannot be denied that it is paradoxical and conflicting.

How can we assess the consequences of this rupture of evolutionary equilibrium? After his tour through the lurches of Western culture, McGilchrist (Citation2019) calls for the reintegration of lost unity, relying on the Hegelian concept of Aufhebung, which involves subsuming the extreme versions into an integral whole (sublation).

There seems to be no other alternative. From the cultural perspective, the holistic mind should gradually integrate the progressive fragmentations generated by the mediated developments of our different psychotechnologies. But for this we would in turn need new designs of the entire set of psychotechnics, with integration as the goal in mind: a full programme of cultural development.

We have just seen how the separation into two modes of attention to reality and to the manipulation of things, on the one hand, and to the relationship with them and with others, on the other hand, has gradually configured two complementary neurological systems. Has there been a comparable separation in the approach of science to reality? It seems to be so, as we shall see in the following section.

The cybernetic scission

We should justify why, among the wide and varied development of the sciences, we turn to the specific field of cybernetics to continue our analysis of the scissions that have influenced scientific thought about the human condition. There is a reason. Entering the second half of the twentieth century, the front of all sciences was remarkably broad, thriving and of great diversity. It also encouraged a great confidence in the ability to solve all kinds of problems, which led to approaching any novelty that promised interesting developments with curiosity and interest. But there was a smaller supply of frameworks and models that allowed a confluence of the variegated diversity that the great scientific expansion that took place in the first half of the century had produced. The appearance of Norbert Wiener’s book Cybernetics was one of the novelties with such characteristics, and in order to debate the theoretical problems that converged in this field, cutting-edge researchers from various disciplines — physics, biology, mathematics, anthropology, philosophy, fundamentally — came together. These interdisciplinary conferences (Macy Conferences), which took place in the early 1950s, raised the hope of having, for the first time, a theoretical reference and a common conceptual language for the meeting of the sciences. Because of the relevance and clarity of the problems addressed, we believe that the somewhat foundational debate that took place at that time will be of particular help to our analysis of epistemological scissions. One of the participants, Margaret Mead, expressed the hope placed in the colloquia on the expectation that cybernetics would provide the theoretical language that the sciences urgently needed to reintegrate the great dispersion generated by the intense and generalized advance of research. Indeed, the emergence of cybernetics (which contemplates the dynamic relationships in systems based on the principles of circularity and feedback; Wiener, Citation1948) coincided with that of information theory, computational logic and artificial intelligence. This disciplinary confluence led researchers from different sciences to meet to discuss theoretical problems in a common language.

But the epistemic project of encounter soon disintegrated: the establishment of sequential computing attracted the priority attention of the organizations that financed and promoted research and that, insofar as they were interested in more immediate and tangible productions, sought a more objective and objectal science. For although cybernetics temporally coincided with the development of artificial intelligence, and although both movements, with different origins, could have been articulated, they ended up in a serious divergence. As Heinz von Foerster pointed out (von Foerster, Citation1995), while the cybernetics approach was holistic and focused on the relationship between elements, the informational approach tended to discretize them. If we bring it up here it is because the scission between these two contemporary movements is of interest due to its epistemological repercussions in the sciences as a whole and, among them, in psychology.

As Pias (Citation2003) reports, Heinz von Foerster, rapporteur of the Macy Conferences, warned that ‘the applicability of digital notions to the actions of the central nervous system has been questioned, but the calculus worked out for handling them is […] applicable to electronic digital computers’. This reduction of neural actions to calculus was captained by von Neumann, and was followed by a wide range of developments that spearheaded the informational expansion. The call for caution and for keeping cybernetics as an experimental epistemology, and not as an instrumental technological development, was completely set aside. According to Pias, the process of thinking was somewhat hastily reduced to the manipulation of symbols, thereby blurring the distinction between the human and the technological. The analogue was narrowed and contracted to digital, and cybernetics itself was reduced to informatics, so that:

Shannon’s information theory and McCulloch’s logical calculus are completely dependant on digital notions, and that means that the whole new universal cybernetic epistemology wouldn’t work if it’s not based on digital terms. Not only for building effective computers, but also for building an effective discourse of experimental epistemology one has to be lucidly and consciously “‘ignorant’ (as Walter Pitts called it) of the actual continuity” (Pias, Citation2003, vol. 1, p. 186). That is to say, to ignore all things that virtually might be digital: “[T]reat them as if these transition states did not exist. It is quite a good way of treating them, said John Stroud” (Pias, Citation2003, vol. 1, p. 184). So it seems that the “experimental epistemology” of early cybernetics was built on specific ways of forgetting, neglecting, and ignorance – of forgetting the analog aspects (or ‹nature›) of its objects, of neglecting their materiality, and of ignorance about most of their states. (Pias, Citation2005, p. 547)

Since then, the process of forgetfulness, neglect and ignorance, and suppression of transitional states, has grown, and digital refinement, mystification and mythicization have become a new faith. In postulating a transcendental illusion, Kant had already warned at the time about the danger of reduction, and that there would be no authentic knowledge without a part of estimation, intuition or illusion, so that flexible adequacy to reality would be more relevant than precision.

In his review of the ‘Macy moment’, Claude Pias (Citation2005) takes the side of the researchers who then proposed a richer approach that took into account this caution, and vindicates the role played by the Biological Computer Laboratory, created at the time by von Foerster, who directed it until his retirement. The BCL was born with the intention of maintaining cybernetics as experimental, as a science that would advance common theoretical and epistemological problems. However, the demands of the financial powers were different, more attracted by models that promised a greater capacity to implement this type of logical-mathematical and computational knowledge, albeit at the price of reducing the conceptual framework. The Kantian ‘illusion’ was lost, the Laboratory closed with von Foerster’s retirement, and living nature and reality were quite marginalized from the funded agenda.

Neo-cybernetics or second-order cybernetics

Pioneering cyberneticists such as William Ross Ashby (Citation1956) had stressed that cybernetics should focus not so much on the facts, objects and feedback recorded, but on the relationship itself. This concern for cybernetic reversibility and mediation would lead Heinz von Foerster to develop, ahead of computer science itself, the first parallel distributed processor. From his multidisciplinary background (physicist, mathematician, philosopher and illusionist in his spare time), von Foerster considered that it was time to make room for all the major problems of science and philosophy, to attempt full integration.

Von Foerster then establishes the distinction between a cybernetics from a non-place or god-place, which he calls first-order cybernetics or cybernetics of observed systems, and second-order cybernetics or cybernetics of observer systems (von Foerster, Citation1976a, Citation1976b, Citation1978) and, by including the reciprocity of the observed and the observer on the same plane, he opens this science to the great disciplinary problems of biology and psychology, as well as to the traditional concerns of philosophy. In fact, the cybernetic scission resuscitates the divergences that had accompanied science since its inception, and further entrenches the distance between an objectual, inert, fixist and mechanistic-technological way of seeing the process of cosmic change and a living, evolutionary, organic and relational-fluid way of seeing it.

The two different cybernetic modalities established by von Foerster correspond in a certain way to two approaches and orientations of researchers, so that the attempt at a disciplinary meeting did not bear fruit. On the one hand, the sciences in favour of control and the reduction of cybernetics to mechanics broke away: information theory, representationism, artificial intelligence and computational theory of mind (cognitive science) which, in their more than foreseeable alliance with power, ended up dominating societies economically, epistemologically, institutionally and culturally.

On the other hand, there remained the sciences that left room for intentionality, autonomy and freedom, and the evolutionary dynamism of life. Seen now with the distance that hindsight provides, we can appreciate that one of the most interesting possibilities offered by second-order cybernetics was to be able to articulate itself: in biology with symbiogenesis, and in psychology with the Vygotskian proposal of dynamic functional systems. It also included concepts intractable from the other branch of science, such as freedom within knowledge, which were equally central to the two biological and psychological orientations mentioned above.

In the second-order cybernetics proposed by von Foerster, that of reciprocally observing systems, the processor is by definition an interacting complex of processors. The position of the scientist does not segregate him from what he studies, but rather he studies it relationally and, of course, he has to do so by studying himself studying it, hence the cybernetics of observing systems, which always do so from somewhere, situationally.

If, as we have pointed out above, according to Ashby all cybernetics, whether they accept it or not, centre the process on relationship itself (Ashby, Citation1956), then, as Glanville (Citation2004) pointed out, cybernetic theory is bound to be intrinsically ethical (Franchi et al., Citation1995). However, the subsequent application by the technological industry, which is based on first-order cybernetics, postulates a unilateral relationship, and therefore one of power, with the object, through which the observer reserves the right to act on it at his discretion and with a fixed purpose or intentionality. Ultimately it places itself outside or at the margin of ethics, without assuming that in cybernetic systems feedback is essential and by definition circular, not captive, so that control could not be at any of the extremes but between them, in interdependence. Interdependence generates, besides the ethical one, a crucial methodological problem, not only theoretical but also practical, because in complex systems the variety of interrelations would extend in such a way that it would exceed the computable.

Decomposing helps to understand, since one type of understanding is based on decomposing and composing; it helps to control, which in computer science is the implicit way to recompose what has been decomposed by a parser (which is properly a decomposer). And the algorithm is its method of composition. A drawback of these efficient analytical methods is that they distract from something that unites living things and even inert things and cannot be described as control or computation. What binds things together in reality is relationship and contact, for relationship in biology implies some kind of contact. This is a concept that, as we shall see shortly, will also lead to a renewal in the theories of evolution around the concept of symbiosis.

Also, the concept of error itself changes its meaning, because if for first-order cybernetics error is equivalent to lack of control, for second-order cybernetics it is equivalent to lack of relation. The former excludes freedom; the latter requires it. The former excludes error. The second accepts it as an inevitable step to correct it, as the beginning of the relation.

Beneath these analytical divergences pulses the whole of ancient Eastern and Greek philosophy, the deepest contradictions of reality, the inevitability of paradox. And in a closer way, the epistemological scission between mechanicism and organicism. Thus, the cybernetic theoretical divergence that took place half a century ago implied in fact a paradigmatic assumption that leads to two divergent models. The technological assumption approaches reality as if everything were inert and its relations could always be instrumental and open to technological action and control. Whereas the organic assumption addresses the essential processes of relationship, development and symbiosis, freedom and correction.

From second-order cybernetics to confluence with life

Thus, the lack of acceptance and development of second-order cybernetics was actually as much pragmatic and methodological as it was theoretical and ethical. For a system that pursues perfect control, it is undesirable to be hindered, and it is unattractive for it to accept a second view or alternative intentionalities. Not only reciprocal logic, but life and ethics, were in the way.

Von Foerster comes, perhaps not coincidentally, to see this interaction from the psychologist’s point of view and, moreover, even mentions the drama model:

It may be argued that over the centuries since Aristotle, physicians and philosophers again and again developed theories of the brain. So, what’s new of today’s cyberneticians? What is new is the profound insight that a brain is required to write a theory of a brain. From this follows that a theory of the brain, that has any aspirations for completeness, has to account for the writing of this theory. And even more fascinating, the writer of this theory has to account for her or himself. Translated into the domain of cybernetics; the cybernetician, by entering his own domain, has to account for his or her own activity. Cybernetics then becomes cybernetics of cybernetics, or second-order cybernetics.

Ladies and Gentlemen, this perception represents a fundamental change, not only in the way we conduct science, but also how we perceive teaching, learning, the therapeutic process, organizational management, and so on and so forth; and I would say, of how we perceive relationships in our daily life. One may see this fundamental epistemological change if one first considers oneself to be an independent observer who watches the world go by; as opposed to a person who considers oneself to be a participant actor in the drama of mutual interaction of the give and take in the circularity of human relations.

In the case of the first example, as a result of my independence, I can tell others how to think and act, “Thou shalt …” “Thou shalt not …” This is the origin of moral codes. In the case of the second example, because of my interdependence, I can only tell myself how to think and act, “I shall …” “I shall not …” This is the origin of ethics. (von Foerster, in Franchi et al., Citation1995, pp. 309–310, our italics)

As we have just seen, living and intentional processes, and the reciprocity and relationship that characterize living entities, had been making their way into this new, more open form of cybernetics. Life had managed to enter cybernetics, claiming its place. A place that, as we have already seen, was still forbidden to it in first-order cybernetics.

However, this bridge that second-order cybernetics laid towards life processes was perceived and highly valued by another part of science, which from the very disciplines of the study of life had been facing converging epistemological problems. Not long after the Macy meetings, other meetings took place in which the supporters of second-order cybernetics met with a group of philosophers, biologists and physicists who also pursued convergence (Gregory Bateson, James Lovelock, Humberto Maturana, Francisco Varela, Carl Sagan, Lynn Margulis, Bruno Latour, William Irving Thompson and others).

Under the influence of a new vision of the Earth as a system (it is not trivial that, at that time, the first photographs of the whole Earth, floating in space, were seen), these scientists jointly set out to advance the integration of knowledge around the convergent idea of the evolution of life and the planet as a unified process. Bruce Clarke (Clarke, Citation2015, Citation2020; Datta, Citation2022) has reviewed and drawn attention to the epistemological value for the reunification of the sciences of that integration movement that occurred in the 1980s, sponsored by CoEvolution Quarterly, Whole Earth Catalogue and Lindisfarne Association.

The crux of that effort was the integration between the technological and the living: if considered equivalent, such integration would fall under the domain of the traditional mechanistic perspective. If not, a more open collaboration and models of science more attentive to life would have to ensue to allow for a non-reductionist articulation.

Both types of approach to the problem have therefore come to be configured as asymmetrical and conflicting. While a living being can adapt to a machine, the reverse is not true: the machine can only adapt rigidly and awkwardly to a living being. To relate is to adapt, but if the interaction is not balanced and free, if it is not bidirectional, if one of the two sides is imposed, as happens in first-order cybernetics, the relationship is excluded: only the subordination of the flexible side to the inflexible side, of the ‘user’ to the technological system, is possible. The technological perspective interprets this adaptability of the human being to technologies — which he has always shown, from his adaptation to the car, the screwdriver, the typewriter or the automobile — as an acceptance of his role as observed, as a subordination and as proof that, since the inclusion of the living into the mechanical is possible in mechanical terms, it demonstrates the universality and superiority of the latter. The one-sidedness is not borne with discomfort but is regarded as proof that the process must flow exclusively into its channel. This assumption entails not only an epistemological risk of error but also a biological and social danger of imposition and totalitarianism of the algorithm and technology.

Simply put, the connection between human and machine has not demonstrated the pertinence of the technological paradigm, only its one-sidedness. Psychologists often tell a joke that offers another perspective on this same approach: two rats in the laboratory discuss the day, and one says to the other, ‘Today I have managed to condition the psychologist: every time I press the lever, he feeds me’. Since the psychologist does not see the need to understand the rat, he tends to interpret that if the rat adapts to his model, it is built according to that model.

This is the same problem that we noticed in the scission between first- and second-order cybernetics: while the latter can understand and interact with the former without limiting itself to it, the former cannot accept or understand the latter. Von Foerster, recalling the divergence in the Macy colloquia, put it this way:

I thought that cybernetics was trying to bring into view a crucial point in logical theory — a point that is traditionally avoided by logic; one which Russell (Bertrand Russell) tried to eliminate by bringing in the theory of types. I thought of the theory of types as a miserable excuse for someone who doesn’t want to take on the responsibility of saying “I am saying that”, because you are not supposed to say “I” with the theory of types. While working on these prefaces [to the new edition of the Macy Conferences] I got the feeling that some of the essential force of Wiener’s arguments were somewhat diluted. And my hunch is that it was perhaps because of this perception, because of this dilution of the notion of cybernetics that artificial intelligence was separating itself from a cybernetics which had become nothing but control theory applied to living organisms. Cybernetics for me is the point where you can overcome Russell’s theory of types by taking a proper approach to the notions of paradox, self-reference, etc., something that transfers the whole notion of ontology — how things are — to an ontogenesis: how things become. Is the dynamics of cybernetics that overcome the paradox. Indeed it seems that classical artificial intelligence researchers tend to refrain from getting into such paradoxical matters. There were of course other separating forces that pulled these two styles apart. One of which I sense, may have been the prevailing funding strategies … . There was almost no other money available for any other studies which were not AI-ish afterwards. (von Foerster, in Franchi et al., Citation1995, p. 8, our italics)Footnote1

Note that von Foerster, by alluding here to paradox and linking it to ontogenesis and development, is revealing a deficit that, instead of being expressed as such, is postulated as structure and norm by the logic of types and by first-order cybernetics. That is, the inability to access evolutionary thought and the intentional psychic dimension is transformed into a mechanism of hierarchy and power.

The theory of types postulates a logic to the detriment of freedom, since it demands the restriction of arguments and predicates to permitted terms. It is a formal pact that comes to be equivalent, taken to its extremes, to a new dogma or new faith, which postulates that there are neither intentions nor agents. But in the practice of science this assumption ends up being contradictory. While scientific projects and theories renounce any priority or intentionality, every call for scientific funding is made specifically from an intentionality, it has goals and priorities. Why is it assumed, however, that the research process and its explanatory models should not have them? If the researcher is or should be objective, why do they accept that research funding programmes and calls for proposals are not objective and define social and human objectives? This is an internal contradiction of the science and technology system with its own code, and it has become an implicit pact that should not be talked about. Everyone declares faith in non-intentionality while knowing and accepting that it exists. The formalism of objective language (not saying ‘I assert’ or ‘I think’ as von Foerster points out) is essential to keep the contradiction under the rug.

So by vetoing intentionality in science, what is really being postulated is that intentionality is reserved to whoever establishes the rule. The exclusive rights to intentionality have been accepted, but only for the real administrators of the science and technology system, who are the ones who finally administer the results of a science that is thus domesticated.

Second-order cybernetics thus comes to demand a logical exercise of realism on cybernetics and on science itself, literally a cybernetics of cybernetics. For, in fact, to veto intentionality and paradox is tantamount to excluding any other observer. The fact that intentionality was barred the entrance through the door, only to be then let in through the window, the actions of first-degree cybernetics prove the validity of second-degree cybernetics, while denying it with its words.

Gaia or the happy bond between the science of inert matter and the science of living matter

In these analyses we have seen that the new scissions in science that inaugurate the second half of the last century acquire a multilevel depth: theoretical, epistemological, methodological and ethical.

As was to be expected and as we have already pointed out, the cybernetic scission led at the end of the past century to two divergent orientations: that of technological progress and that of the development of living beings.

What could not be foreseen, as is often the case in science, was the advent of a new conception that would make it possible to reintegrate segregated plots in Earth science, and which came from the exploration of other worlds. When NASA undertook space research, it was interested in James Lovelock’s spectrograph, which could measure the presence or absence of atmosphere on planets. For Lovelock, the atmosphere was the best indicator of the process of planetary decay or organization, and he had therefore proposed that the factor that would accompany life on any planet would be the existence of an atmosphere.

Since the beginning of the twentieth century, the Russian physicist and bio-geochemist Vernadsky (Citation1944, Citation1945) had held the idea that life does not stay within the premises for which entropy is stated, which is consistent with Schrödinger’s (Citation1944) idea that only life causes entropy to decrease (negative entropy). With that in mind, Lovelock assumed that the atmosphere would not form in the absence of life, that is, if only the law of entropy intervened. NASA’s first exploration of Mars confirmed Lovelock’s hypothesis: no atmosphere, no life.

From then on, Lovelock linked the evolution, geoforming, physics and chemistry of planets with the evolution of life, and assumed that the development of organisms and species is not independent of the evolution of their material environment, nor is the evolution of the latter independent of the evolution of the former. Thus arises the first idea of a joint planetary dynamics which Lovelock, although he had considered other names such as geophysiology, which translated the fusion of biology and geology, finally proposes to call Gaia, a name suggested to him by his friend, the writer William Golding (Lovelock, Citation1979, Citation1988). As the idea had been configured, Lovelock realized that he needed to collaborate on it with Lynn Margulis (Margulis, Citation1998) because of her knowledge of primordial life and her theories on the interrelation of living beings. Margulis finds the idea of a common evolutionary unit on Earth very generative, and believes that it will lead to a disciplinary reintegration of the evolutionary process.

The Gaia project became one of the paradigmatic innovations that have had the greatest impact on our understanding of the evolution of the planet. The data collected by Margulis confirmed the hypothesis of the formation of the Earth’s atmosphere and found who was responsible: the microorganisms of early life whose metabolism is linked to the metabolism of the planet and the oceans. The inert matter of the Earth alone could not have stabilized the temperature of the planet, nor could its chemistry have constituted a livable medium for the life system. And vice versa. So the central idea of Gaia is that insofar as it is the result of the interdependent development of environments and organisms, it configures a unique system, with a general regulatory capacity: a true respiratory system of life and of the planet itself.

The entire range of living matter on Earth, from whales to viruses and from oaks to algae, could be regarded. As constituting a single living entity, capable of manipulating the Earth’s atmosphere to suit its overall needs and endowed with faculties and powers far beyond those of its constituent parts. (Lovelock, Citation1979, p. 9)

If that process of interconnection of environments and organisms had not managed to establish itself and grow to a critical level, the Earth would be like so many other planets, an inert planet. It was an inverse demonstration that inert matter, without life, is impotent to achieve singular things such as those achieved by planet Earth. The idea of Gaia, which came to Lovelock as an intuition from the engineering of physics and chemistry, finds in Margulis’ symbiogenesis the necessary biological support. By approaching the evolution of life and the physical-chemical evolution of the planet and its atmosphere together, it is possible to understand that, without a linkage and coordination of both processes, neither of them would have reached the present level. Thus, both ways converge to sustain theoretically and empirically an evolutionary articulation between inert matter and living matter. Margulis and Lovelock argue that inert matter and living matter begin to jointly articulate their evolution on planet Earth when the mass of living organisms reaches a certain level in the system (Margulis, Citation1998). 2.2 billion years ago, The Great Oxidation Event caused the atmosphere to rise from just a few traces of oxygen to the present level of 20–21%, turning the atmosphere into an extension of the biosphere (Clarke, Citation2020). The millenary separation between theories applicable to inert matter but not to life and vice versa is thus resolved, opening a path of confluence in the sciences, still insufficiently explored today.

The concurrence that occurred in the 1980s between members of the foundational movement of neocybernetics, or second-degree cybernetics, and the new, unified understanding of the evolution of life and the Earth that we have just recalled somehow reflects this renewing interdisciplinary trend (Clarke, Citation2015, Citation2020). It does not seem coincidental. That the concept of autopoiesis advanced by Maturana and Varela was present in both movements indicates that life forms a central part of the new thinking that emerged then, linking sciences that had marched in parallel and that seemed now capable of unifying technology and life (Margulis & Sagan, Citation2000; D. Sagan & Margulis, Citation1987).

As Lynn Margulis showed when adopting the concept of autopoiesis (Margulis, Citation1998; Margulis & Sagan, Citation2002), this self-creative process of living organisms leads them to carry out activities and to pattern them as functions and organs that integrate with each other (symbiogenesis) to expand the capacity and complexity of their organisms and activities. It is an alternative to the technological and purely competitive analytical model between separate organisms: life advances by integrating and merging, not by disintegrating; it advances by doing and contacting, not by representing or fragmenting.

While the technological episteme tries to propose the process of integration from inert matter and machine, the process that in fact has taken place in the history of the Earth is the inverse. It has been life that has managed to articulate the evolution of the planetary system and its environments, in intimate and profound articulation with the global biosystem. Thus, when faced with the more concrete problem of integrating the human organism and technology, there is a very solid basis for seeking a way of integration guided by life.

Gaia is divided. Bio-logic and techno-logic

The expected drift of the application of the mechanical episteme is to reconfigure the human as technological: transhumanism, which views humans as deficient machines to be augmented and perfected by technological means.

In an extrapolation to the future, this path will first pass through transhumanism but would eventually culminate in absolute machinism. For in the end, from the coherence of such a system, hybrids and cyborgs would also end up constituting a burden for the purely technological. Thus, having midwifed and brought superintelligent machines into existence on Earth, mere humans would be relegated to a secondary or unnecessary role, and would eventually disappear, as James Lovelock prophesies in his latest work, Novacene (Lovelock, Citation2020).

It should be noted that, by the time he writes this work, Lovelock’s thinking has already abandoned the linkage with the evolution of life that characterized Gaia theory while working with Margulis (Lovelock & Margulis, Citation1974). As Bruce Clarke suggests with regard to global warming, for the late Lovelock of Novacene, the role of Gaia has been reduced to that of an ‘air conditioning of the planet’ (Clarke, Citation2021; Datta, Citation2022). From that logic, Lovelock reasons that once machines are able to operate with warming, neither life nor Gaia would be necessary anymore. Transhumanism itself would thus constitute only a transit to an absolute and permanent technological realm of only pure machines: the Technocene.

It is a twist on the idea of homo faber that refabricates itself as homo deus, as super-transhuman transmuted into super-machine and thus endowed with unlimited existence and powers: ‘[humanity will then] have divine powers of creation and destruction, and upgrade Homo sapiens into Homo deus’ (Harari, Citation2017, Chapter 1, position 835, p. 53).

In the face of this dystopian vision, it is necessary to review and assess the possible models that in psychology would have advanced their projections into the future, and judge whether there are alternatives to that transhumanist model (the technological enhancement, fusion or substitution of the human) that seems to be imposing itself simply by the no-show of contenders. And we would also point out that, coinciding with the weakening of the evolutionary perspective in general psychology, our discipline shows a striking lack of models for the future.

Not total, however. Suffice it to suggest that, for us, the germ for developing the alternative would already be in Vygotskian peak psychology (del Río & Álvarez, Citation2021) and, as Vassilieva and Zavershneva (Citation2020) point out, Vygotsky’s psychology, especially in the final stage from 1930 to 1934, is fundamentally a psychology projected into the future. At this stage, Vygotsky outlines a model of psychology that he calls Acmeist — or summit psychology, in emulation of the movement of Vygotsky’s contemporary Acmeist poets, such as Gumilov, Mandelshtam or Akhmatova. It is a model that proposes the construction of consciousness as a continuous project of integrated psychic development towards freedom (Maidansky, Citation2021): an unequivocally bio-psychic and evolutionary model that considers that the human condition is a process of continuous development. In short, it is a perspective that contemplates human evolutionism as a process reinitiated in each new culture and in each new person, liberating the matter of the human condition from its previous confinement in the models of inheritanceFootnote2.

Homo faber learns to fabricate himself. From instrumental mediation to the technological scission

To understand technological development, it is necessary to go back to the first steps of historical-genesis, from the perspective adopted by the cultural-historical theory. Mechanicism is with humans from the moment we picked up a stone or a stick and used them as tools, from the moment we made the first instrument. Going back to the origins of instrumental mediation can help to analyse the roots of the technological problem.

Indeed, there are reasons to think that the implementation of technology has not been accidental, and that its roots can be traced back to the first steps of homo faber, to the first instrument he used to act on his environment in an extended way.

From those first moments an essential difference arises between the technologies or instruments developed by our ancestors to act on external nature, such as the axe or the stick, and those they developed to act on their own psyche, which Vygotsky called psychological tools or instruments: marks in stone, wood or clay, the tools and burials, the bones to cast lots or divine the future; or nowadays, a note in the diary, a crucifix on the wall, a photo on the sideboard.

In its origin, the efficient mediated action exports the action to an object, which becomes an instrument, such as a stick, for example, or a mallet to hit something. It will take a long time to make the leap to mechanics but, conceptually, from instrument to machine there is only one step. For if we manage to transfer human action to another agent (the wind that moves the blades of a mill, the water of a riverbed that pushes a waterwheel, the domestic animal that moves the plough) and then sequence that action, we obtain a machine, a non-living alter ego, on whom to delegate the use or setting in motion of the instruments. This is the case, for example, of a fulling mill or the wheel of a water mill, which in the modern age was used to move one or more mallets that beat fabrics or skins, or to move one stone over another to grind grain. We can capture steam and, like Watt’s machine, produce a repetitive mechanical action, such as bailing water from a mine or a ship. We can in short build machines not only to do our physical work but also our psychic work: calculators, relays that when x happens do y. We can thus substitute some of our actions or part of them if they involve too much effort or too much time. Or if some ailment or deficiency prevents us from doing so, then we can use them as prostheses. The capacity of action of the external instrumental operation on the environment can become enormous, and exceed by far the organism’s capacity for direct action.

But the unlimited capacity of instrumental action on the exterior can also lead us to think of the organism itself as a set of mechanisms. It is equally logical to think that the scientist or the engineer considers himself capable of improving the current design of this set of mechanisms. Homo faber thus encourages the project of manufacturing and improving himself.

The mechanistic illusion has now spread to the conceptions and methods of the different sciences, so that all attempts at understanding the processes of organisms look at them as technological and computational processes.

The recent achievements of scientific engineering may encourage the temptation to definitively discontinue research on the processes of the human organism and psyche, and to concentrate efforts, ideas and budgets on the productive processes of technological action.

But are these machine principles really transferable and congruent with the processes, functions and organs that characterize humans? Dazzled by the material advantages and the economic and social progress that this assumption would have if true, researchers and social powers have been inclined to accept this comparability without questioning it. However, it might be advisable to consider the matter with more patience and prudence, since treating the living as inert in order to take advantage of apparent practical benefits could have undesirable consequences for the evolution of life and of the human being itself. Lyotard (Citation1988) anticipated the debate — today in full boiling point — that an intelligence without a body, without life, was possible; that, as proposed by transhumanism, immortality could be achieved through human enhancement, adding or inserting technology into the organic until reaching its total substitution by the technological-inorganic. The great visions or narratives of the future or of the human are presented today as two great epistemes confronting each other: the episteme of life and evolution on the one hand, and the technological episteme on the other.

Understanding the process of technological mediation of the mind is indeed key to understanding the problem of technology, to whose spell today’s civilization seems to have surrendered, and which major economic and political influential groups worldwide are trying to impose as a model for the ultimate transhuman transformation — presumably with a not particularly altruistic purpose (see, e.g., Broom, Citation2021; Bruce-Lockhart & Russell, Citation2022; Farahany & Thompson, Citation2023; Harari, Citation2020; Lee et al., Citation2020; Liu, Citation2020; Webb & Hessel, Citation2022; World Economic Forum & Frontiers Media, 2023).

The human-machine continuity. Development and neurogenesis

[…] once technology enables us to re-engineer human minds, Homo sapiens will disappear, human history will come to an end and a completely new kind of process will begin [. Humanity will have then] divine powers of creation and destruction, and upgrade Homo sapiens into Homo deus. […] The upgrading of humans into gods may follow any of three paths: biological engineering, cyborg engineering and the engineering of non-organic beings. (Harari, Citation2017, Chapter 1)

The technological vision of science has assumed, in a manner congruent with mechanical thinking but incongruent with biological thinking, that capacities and functions can be added or inserted into the human, like someone who operates a bulldozer, a robotic arm, or inserts a new memory card into a computer. Hence the terms upgrading, enhancement or augmented functions that have become widespread in the new technological culture. Technological thinking assumes a continuity of nature between the mechanical and the living organic that would theoretically and methodologically simplify the incorporation of these new extensions as mere attachments or additions. The old psychological instruments defined by Vygotsky thus reappear as spare parts of the mechanical process. The concept of prosthesis would be the closest to this conception.

Prostheses, whether external or internal, whether external attachments or biotechnological inserts, are mechanical operational additions, but the construction of a central process that can articulate the instruments neurologically in the psychic system necessarily implies a process of development, for all authentic integration is development. Our biological and neurological systems have no ports, or interfaces with the technological to insert any kind of mechanical addition that we can conceive.

It is necessary for the entire organic and neurological system to carry out a process of instrument integration (which would literally be development) to incorporate these extensions that elsewhere, and from the Vygotskian theory, we define as trans-organic (del Río & Álvarez, Citation2016). In its continuous process of neurogenesis, our brain develops, by its own dynamics — autonomously — new central circuits of connection of diverse subprocesses to be able to incorporate these extensions and instruments. Thus, by functionally subordinating themselves to the integral activity, the new instrumental actions are fully appropriate, in a genuine process of development of the psychological system, whether it is a new sensorimotor scheme that supports the precise turning of the wrist required by a screwdriver or the new praxias needed to play the piano or the violin.

The assumption of achieving functional progress in a living being without integration or development is the illusion that fuels the technological episteme. Before Vygotsky moved from his first model of acquisition and internalization of higher psychological functions to a more integrated model, he made a similar assumption: that functions that are acquired externally mediated by instruments and social others are simply transferred inward as mental functions. The term used then was internalization and expressed that process as a mere transfer (del Río & Álvarez, Citation2013). In his later theoretical self-critique and neuropsychological reformulation, Vygotsky gave entry to the two central processes of integration and development (Vygotski, Citation1990d). Integration because he assumed that functions are not acquired one by one as isolated units but involve an inter-functional network connection with other functions (psychological systems). Development because he understood that the means by which we transform and build our neuropsychological system requires a complex process of evolutionary changes and improvements of the whole.

The so-called internalization of language is therefore not a mere transfer but involves the construction of new internal circuits that are always personal learning routes, which reconstruct inner language and which are neurologically connected with a multitude of new routes and brain areas, experiences and functions that are singular and individually distinctive. To refer to a simpler example, when someone learns to use the screwdriver, at the same time that the new neural networks that deal with it change, so do the configuration and joints of the wrist (since turning is not a natural praxia), so that the whole body and not only the wrist creates an integrated system of movement, in addition to the neural networks that support it. A whole new system ‘learns’ to use the screwdriver. Something similar occurs, to a greater degree of complexity, with the development of higher psychological functions, for example, and as the most notable of these functions, language. Language could not simply be acquired, already internalized, with a speech chip, obviating those innumerable integrative connections that support it. The transhumanist project assumes with a certain theoretical simplicity the incorporation into the brain of the supposed augmented functions, considering them mere add-ons or additions, as simple to instal as plugging a loudspeaker into a sound reader, and as if the various attached engineerings, bio, neuro, electro, physical or chemical molecular in their macro, micro or nano configurations — all elaborated from the technological logic — could be incorporated in continuity to the organic constructive logic.

There are reasons to think, as some biologists maintain, that organic processes are integrated, creating among them a resonance and harmony that is in each case original, evolutionary and developmental, and that therefore implies a non-predefined adjustment. They conform to what the biologist Denis Noble has called the music of life (Noble, Citation2008), or what millennia ago Lao Tzu defined as harmony (Lao-Tsé, Citation2017).

Developed functions or augmented functions?

The role that Vygotsky attributed to mediation was that it made it possible for natural psychic processes to become operable from consciousness, and thus to become voluntary and increase one’s freedom. This would be its evolutionary logic. As we have said, the most relevant aspect of the Vygotskian systemic approach is that reorganization as a system allows function to become more conscious and therefore properly voluntary.

This perspective marks a distance from the assumption that predominates in current developments of machine-human interfaces. The incorporation as add-ons of extensions and abilities, without involving the central processes of integration and development — and with it the increase of autonomy and freedom — leads to the addition of added functions being reduced to a mechanical incorporation on the subject (passive) by a mechanical agent (active) that thus acts discretionally on the subject. It is not necessarily hacking, but it is very close. The insert would not be a prosthesis under the control of the subject but a somewhat autonomous function that the subject uses. And the autonomy of the insert and of the supposed function would always be an open question.

The assumption of technological continuity and insertion of entire functions rests on the idea that humans are epistemologically assimilable to mechanisms and therefore lack freedom. Assuming such continuity is, however, methodologically very useful since, by not recognizing in the ‘augmented’ subject any autonomy, moral and legal restrictions are lifted on what is presented merely as yet another technological innovation.

Let us repeat what we said when discussing the cybernetic scission: the technological perspective interprets the adaptability of the living being to technologies as subordination, and the latter as a demonstration of the structural lack of freedom in humans. Together, both reductions smooth out the social and moral obstacles and leave the way open for the direct homologation of the living to the mechanical.

But when the living system adapts itself to a stick, a screwdriver or a machine, it is still in control and does not prove at all that the stick, the screwdriver or the car are superior: the current of life and evolutionary flexibility continues to flow under the interface. Even if the stick influences the organism’s capacity for action, it does not control it. In reality, the connection between human and machine does not demonstrate the relevance of the technological paradigm, only its one-sidedness. If we go further and succeed, for instance, in inserting ‘false’ images into the brain so that it takes them as real, and capture from there the intentions and responses and the movement synapses, this hacking will demonstrate nothing more than that: that we have deceived and captured a living being by falsifying its circuits, that we have succeeded in disintegrating it. It will not have succeeded in demonstrating that it was not free before, but that it is not free now, that it has been captivated and that its integration processes have been hijacked.

The transparency of psychological mediations and the invisible algorithm

According to Vygotsky’s initial concept of mediation, the apex linking stimulus and response in his triangle of mediation indicates that an object or a mark, introduced as a response to a stimulus at an initial time and space, becomes, at another time and space, a stimulus that directs attention to lead to another action or response. That is to say, the mediator transports psychic reactions from an initial present situation to another not yet present: it mediates, re-presents or transfers stimuli and responses. It thereby modifies the phenomenic situation. Generalizing to current computer language, we could say that the psychological instrument is an operation that links entities previously separated in space or time, properly an algorithm. Learning by means of most psychotechnics and psychic instruments is achieved by contingency, by conditioning and contiguity, and is linked to mediated and shared actions in repetitive situations.

But as we have already mentioned, once internalized, mediations become invisible. Probably a good part of the problems of dualism, animism and the scissions that have ensued throughout the history of human thought have been propitiated by the invisibility of cultural mediations.

And it is this invisibility of procedures that gives technologies and artificial intelligence their halo of magic. A screwdriver, a crane or a robot, and even a chip that the subject sees before it is inserted, are out there, as tangible objects, but this is not the case with the multiplication table, prayer or discursive dialogue, which have been internalized. Psychic mediations become transparent and enveloping, as water is for the fish that lives immersed in it.

It is not difficult to understand why. For us all things, whether natural or artificial, are objects and all instruments are instruments, whether efficient (they transform external matter) or psychological (they transform our mind). For perceptual purposes, even when psychotechnics remain outside, we see them as things, and not as psychotechnics, not for their psychological function. Their character of affordance (of psychic label for our perception, or psychic handle for our action) would only be perceptible to the ‘X-ray vision’ of an eventual cultural-historical psychologist. The invisible cloak closes when the mediations become automated and are placed in the realm of the unconscious. It would be convenient to review the assumptions that all organs and senses are inside the body and to consider that the human species has extended its organs trans-organically (del Río & Álvarez, Citation2016), as well as the assumption that everything mental is inside, and to take into account that psychic functions are extended in the environment (del Río, Citation2002).

In itself, these mediated links embedded in culture appeal to the subject in a non-conscious way, and are triggered from the environment without the subject having either awareness or control of them, establishing unconscious associations. We have reconstructed the environment to be synomorphic with our mind, so that our ecological niche is more consistent: we could affirm that psychotechnic mediations make it easier for human communities to appropriate the affordance and its control to a certain degree. So to speak, the collectivity has learned to ring Pavlov’s bell collectively, and this in turn makes it possible for each individual in the collectivity to succeed in ringing it for himself. To individualize and make conscious this control — in its social and collective beginnings — requires that each person master for himself the psychotechniques from which his psychic functions operate.

Insofar as psychic development is ultimately formulated as a process of mastering psychotechnics, ranging from shared but unconscious use of psychotechnics to conscious personal appropriation, psychological tools are also within the technological, albeit in a different way from current assumptions. It is this second step of making the technical conscious that makes the difference. When these informal and situated learning processes become explicitly intellectual, as for example, in education, they can be analysed in more detail. For example, in a good didactic process of number and addition, the schoolchild gradually connects various chains of psychological instruments: the object that leads to a Montessori piece or a Cuisenaire strip, a wooden token or a mark in the notebook, and from there to a sign, for example, the grapheme 3, and from there to the figure or category number 3. In this process, most of the links are automated by repeated use, and only the object and the final number end up being visible; the intermediate steps are subsumed as steps overcome on the way, and become forgotten, invisible, abbreviated and enclosed in the black box of automatism, of which we only see the box itself, or even just the label or name it bears. In today’s culture, the number of black boxes, of automated and invisibilized intermediate steps, is enormous. And they contain a world that is generally psychically invisible, secondarily unconscious, even to psychologists.

With the concept of invisible algorithm (del Río, Citation1987) we wanted to express this concealment and abbreviation that is based on the tendency and capacity to discretize the mediated steps, and then to abbreviate or subsume them in one of the steps, almost always the last one: we keep the label and the ‘handle’ and, upon the automated and abbreviated internal mechanism, we put a shell or a carapace, an epidermis, a packaging that carries that label and that handle. Any of the mediation steps encompasses and insumes all of the above and, therefore, rather than objectivizing itself, it objectifies itself and becomes a quantum referent. Usually, only the first and last steps remain visible, but for the acquisition, integration and mastery of the new function to be possible, the learner must have followed and appropriated the whole process. Only in this way will the abbreviation that occurs at the end with automation be operative and efficient.

Similarly, when we use the word processor, the steps that were visible in handwriting and even on the typewriter have been moved into a black box, so that the new instrumental functions become even more magical than they were initially. We could be, seen from the outside, facing a pattern almost comparable to that of the rat pressing the lever in Skinner’s box to receive food. This has an inevitable effect: it increases the degree of fragmentation and invisibility of an essential part of reality. Given the density that efficient and psychic instruments have reached in our cultures, all this packaging and abbreviations are necessary. The problem is to know whether they occur after an adequate process of internalization and automation of a complete and well-constructed mediated process, or whether they occur in the absence of such a process. In the latter case, the child or the learner associates labels and closed devices (black boxes) with contingent outcomes that occur without understanding their linkage, so that the learning process could be perfectly assimilated to operant conditioning.

If the child is not allowed to live through and acquire the whole process, but is presented only with the final abbreviated forms (the black boxes with their label), he will never master the function and will only be able to link conditioned or unconnected actions. He is condemned to a merely episodic and nominalistic learning, a caricature of learning in which he pretends to know without being able to understand. His concepts lack inner argument, evolutionary history and functionality.

The invisibility of mediation covers both a solid and well-constructed procedural function as well as a ‘hollow’ function, in which the procedure is missing even though it may seem epidermally similar to the complete one. It thus gives rise to mentalism and grants a pedestal of magic to technology, making it sacred and quasi-divine, without really understanding it. From this point of view, a trivial technological view of science can encourage a return to animistic irrationalism, as if the chemist were regressing to the action of the alchemist.

The child’s magical perception of words, as described by Vygotsky, is very similar to what happens in technology, full of black boxes and invisible algorithms:

NB! For the child the word is a property, a part of the thing, it enters the structure of the thing. Inde (1) It is more closely connected with the thing (by the object relatedness), more concrete, the Feldmäßigkeit; (2) but the word simultaneously, as its part, as a tangible word, replaces the thing, it reifies it, preserves the affect (the Aufforderungscharakter) of the thing, it is an Ersatz, to say it = to do it, it creates its activity like in a dream. That is, word meaning in the child lies in between meaning during the dream and meaning in generalized perception. Inde, this causes the child’s magical thinking! (Zavershneva & van der Veer, Citation2018, p. 489)

Conceptist education and developing education

In the logic of mediation, the human organism introduces psychological instruments into its natural functions, so that, so to speak, technologies become naturalized, articulated with the organism in an integrated and tiered manner. This would be the ideal order if things were going well. However, it is not the logic of tiered mediation that usually governs educational plans or the particular circumstances of each centre, classroom or teacher.

Indeed, in many cases, teaching is limited to the ‘declarative’ or to the final result of an algorithm, such as a formula or a grammatical rule, hiding or not deploying the mediators that lead to that result, formula or rule. It is forgotten that the abstract-declarative concepts usually taught in school were originally procedural operations mediated by specific instruments, that every higher psychic function has emerged from a cultural or scientific history and thus possesses a well-defined instrumental biography. The main objective of teaching should recover this history, not only conceptually but instrumentally and procedurally: the concept of degree or latitude has gone hand in hand with instruments that have made them accessible to the scientist, and that can and should make them accessible also to the child or the apprentice (del Río, Citation1987).

Behind Vygotsky’s well-known formulation that all good education precedes development lies the methodological heart of the idea of developing education: what drives development is but a neuropsychological consequence of instrument-mediated activity, and it is applicable in all fields of knowledge (Davidov, Citation1988; Solovieva & Quintanar, Citation2021).

A whole generation of Vygotsky’s disciples applied these principles in curricular designs, as is the case of the method followed by Davydov (Citation1990) for teaching algebra, which clearly derives from the idea of formative experiment proposed by Vygotsky, or Galperin’s method of training by stages (Galperin, Citation1979, Citation1995; Solovieva & Quintanar, Citation2020). One of us applied them to the development of geometric concepts and spatial thinking (del Río, Citation1987). Unfortunately, much of school didactics is still full of hollow concepts, which become verbally familiar but which in reality are operationally unknown, arbitrary connections that the child must memorize without understanding why, and always more difficult and inaccessible to him than the original mediated procedures and activities.

Although these processes have been analysed and worked on more systematically in the field of formal teaching and learning, we can and should consider from the same perspective what happens in the case of informal learning in everyday culture. The integration of new technologies in popular culture has occurred, predictably, without the guidelines that psychological and pedagogical research have been able to produce for formal learning. And in this respect it is not at all indifferent whether the technologies that families or children incorporate into everyday life follow one perspective or another.

In 1986, when we were working on a technology design project, we stumbled upon the first Macintosh and were fascinated by the educational possibilities it offered. With our seven- and nine-year-old sons, we realized that we had a powerful cultural toolkit and psychological instruments at our disposal. With a typing tutorial, they quickly learned the blind method of typing — something we have not yet mastered — and, progressively, how to draw, make music, edit, and acquire, sort and file information. One cannot forget games to which the presence of the Mac gave a creative and educational boost that was felt throughout the industry.

That mythical little computer was at that time a powerful technological lever, a technology to produce development. By proposing to recover the traditional codes, languages and forms of humanistic culture (hearing, reading, writing, drawing) and by moving from linear sequence to graphic space, Steve Jobs distanced himself with the Mac from the trajectory of the conventional computer. Perhaps not so anecdotally, the neurologist Jill Taylor (Citation2021) compares the trajectories of Blackberry or Windows, on the one hand, and Mac on the other, with the trajectories of LH and RH.

If we mention this anecdote about the Mac, it is to recall something that Jobs — whether he anticipated it theoretically or merely intuited it — implicitly picked up in the Mac and in the cultural wake it left behind: that development and learning are non-transmissible and must be so, that the noblest function of technology is to provoke and enable development and not to replace it. Behind the philosophy of cyborg transhumanism lies the illusion, magical and deceptive, of achieving development without activity and without effort, of buying life without living it, of reaching goals without a path; we would even dare to say of acquiring happiness without deserving it.

In its productive enthusiasm, certainly admirable, the trend of the technological episteme has not yet taken the necessary time to understand the living mind, and without that step it can hardly adequately understand technology itself. Its inferences and projections into the future do not fail to arouse a certain stupor:

Those who have become cyborgs will be one step ahead of humans. And just as humans have always valued themselves above other forms of life, it’s likely that cyborgs will look down on humans who have yet to ‘evolve’. (Warwick, Citation2004, p. 4)

This assumption of continuity between organism and machine is probably the stumbling block, not only technical but theoretical, in the whole transhuman technological episteme. Assuming that integration will always be simple and fluid, and that no development is involved but only the insertion of technology, implies that the diffuse paradigm of progress that has presided over the march of societies and science in the last two centuries will continue without interruption. From this episteme — often more a faith than a paradigm — it is aspired to replace biological and psychological development by the acquisition of new technological aditaments that will grant superiority to those who possess them.

Who serves whom. The technology-human relationship and the reduction to control

As we have already said, in order to understand technology it is essential to consider the psycho-functional role played by any technological instrument or device; that is, it is the organic that gives functionality to the technical. The theory of mediation provides a model to analyse these functional relationships with the human subject, and in this theory there is an essential fact: that we start from an active organism that incorporates technology as a medium, and therefore, even if the instrument is extraorganic and located in its cultural environment, it incorporates it functionally as an organ or part of its organism, which requires a process of functional integration and bio-neurological development (del Río & Álvarez, Citation2016).

Since the origin of informational engineering, the basic problem to convert any information into an algorithm and make it computable is to fragment it into descriptions and discrete computational operations (the work of a parser). The goal is to compute, so it is necessary to segment relationships into distinct chunks of code, sequences of information that can be operationalized and processed as isolated computations. The subsequent symmetric procedure is to link the various fragments on the basis of algorithmic logic, in which any random linkage is possible. These are different assumptions from those of living logic or bio-logic. Although we must, of course, admit that if all human activities could be integrated into this mould, the possibilities of management and control would be much more centralizable and manageable.

Already von Foerster pointed out the main problem of computation from the perspective of cybernetics: its advantage is its disadvantage. Computers, as manipulators of symbols, and having incorporated logic and algebra into their structure, are free from errors of calculation or syntax, and cannot produce inconsistent formal structures. They can produce nothing but formal plausibility. That is their merit and their great advantage. Logical intelligence thus provides reliability and combinatorial and probabilistic capacity, and has a great capacity to articulate meaning, but sense, direction and ethics will have to be provided by other means.

If we stop to consider them, we will easily reach the conclusion that it is difficult to algorithmize many of the vital activities. The attempt, therefore, to convert all human activities, whether or not they fit into the software, to today’s artificial intelligence cannot fail to be perceived as a problematic attempt, like taking a device out of its field of competence and generalizing it to uses that are not its own. In doing so, the control and centralization that may be desired by the powers that be have been given priority over the vital objectives of the humans who are to use them. Social change is projected from an inverse relationship: the more the human adapts to the technological, the less human it can be. The former grows at the expense of the latter.

Sacrificing validity and freedom to ensure reliability and control is tantamount to restricting the diversity of life and culture to the capacity and restrictions demanded by the new tools. The evolutionary and technological episteme are being made to appear to be at odds with each other, excluding formulas that could be developed for better human integration and development.

The ideal pursued today in science and in the computational industry is to achieve a computer with unlimited computational capacity and that never makes mistakes, which requires absolute predictability and total control. While this is a convenient and even necessary objective at certain moments of the research process, the organic world seems to have followed other paths: it progresses by trial and error and builds by symbiosis; the control it exercises is always situated and relative, so that life counts on error and even takes it as its starting point; it does not advance by avoiding errors but by correcting them. In general, it resorts to autonomy and freedom as a method, and promotes articulations and integration from the basis of free actions. It never accepted the logic of types because it is always open to paradoxes and contradictions.

This leads us to ask ourselves if the evolution of life has not arrived, in its long process, to a more realistic and more intelligent option than the one chosen by artificial intelligence. What sense does it make for a living being to achieve a hypothetically perfect digital abstract thought, or machines with infinite calculation capacity, and with zero error? What sense does a totally predictable reality make, without contingencies or errors, if the price to pay is that those calculations move in a virtual unreality, and the possibility of development is prevented?

Everything indicates that it is life and not technology that offers the greatest evolutionary capacity for improvement and that in this aspect — which is the one that most affects humans — representational calculation is condemned to always be behind living reality, like Achilles behind the tortoise in Zeno’s aporia. However fast Achilles or the supercomputer may be, while the latter performs its very fast quantum and quasi-infinite processing and Achilles flies on his light feet, the real referent and the poor tortoise keep living without ceasing to take their small steps and producing something different.

Langue, parole and artificial intelligence. From Saussure and Vygotsky to the chatbots

The instrumental scission culminates in the current conceptual and industrial domain of Artificial Intelligence (AI hereafter). It is an excessively broad field and its development is so rapid that we could hardly here, to bring this analysis of scissions to a close, assess its promises or its dangers. We limit ourselves to consider the proposal put forward from the technological episteme that the scission (decoupling) of intelligence and consciousness is already underway, as Harari states: ‘Intelligence is decoupling from consciousness’ (Harari, Citation2017, Chapter 11, position 4807, p. 361).

Harari’s proposal seems to translate a widespread assumption in AI that ultimately reality obeys a logical-mathematical description and that, if so, computational capacity ultimately defines intelligence and the best kind of consciousness that could be achieved. We would thus have it that physical reality itself would adapt or respond to the categories of the formal code of computational logical processing. The living is somehow outside the computable reality, and therefore outside the cognizable or acceptable reality to the AI episteme.

This theoretical or formal assumption thus grants a stellar role to language among human psychological functions. But it is a role conditioned to language being understood as a computable language, that is, as a definable and objectifiable code.

This places language itself in a conflictive territory, insofar as it has played a central role, both in the more formal models that can be assumed by the computational paradigm and in the more open psychologies related to biological processes and to humanistic and cultural processes. Language is a multifaceted instrument. It operates referents in the external world or in its inner simulacrum, but it also operates intentions and constructs of consciousness that belong entirely to the inner world.

At the most expansive moment of semiotics in the 1970s and 1980s, there were two opposing theoretical positions. One stipulated that the discipline could only advance by circumscribing its research and description of semiotic systems to the realm of what was observable in the signs and communicative processes themselves, excluding the subjects and their internal processes from its examination. Umberto Eco then asserted that psychological subjects are only recognizable and can only be the object of semiotics in terms of their external, exempt semiotic or linguistic productions, which can be objectively analysed as objects or discourses existing in the objective world of things (Eco, Citation1976).

From the second position, which we exemplify here in the Tartu School (Lotman, Citation1990), the need to study the externally accessible exempt rules and repertoires, but also the internal semiotic world, was held instead. Due to its Vygotskian tradition, the Tartu school viewed language as a holistic and multilevel instrument, capable of following both mathematics and computation in their purest formalisms and the subject in the depths of his consciousness, and in his still stammering senses that seek their way to meaning and verbal expression. As Lotman pointed out, ‘Thought is within us, but we are within thought’ (Citation1990, p. 273).

Current developments in computer-to-human dialogue or conversation programmes (chatbots) are also tributaries of the same division that affected linguistics and semiotics, and which links with the old cybernetic disjunctive of first and second order. In this case, by assuming that thought and natural speech are reducible to logic and both are analysable from exempt language, from external manifestations, we are excluding the existence of private worlds, alternative visions or intentions, which could hinder this model; we are adopting the model of first-order cybernetics. AI would be assimilated to a semiotics with langue but not with parole, or with paroles only insofar as the latter is taken as exempt objects and public repertoires of langueFootnote3.

Neuropsychological research has shown the convergence between the structure and functioning of human action and that of its language (Ardila, Citation2012a, Citation2012b). We can thus assume a threefold coherence and linkage between the world and the things in which human beings live and behave: (1) their actions in it; (2) their mental linguistic processes in which semiotic objects or information, and their relations, operate analogously to how physical things operate; and (3) the social others and their intentions, together with the self and theirs, and their various reciprocal worlds. A psycholinguistic approach will have to take into account these three spheres, the world, language and consciousness: the structural approach that leaves out consciousness and intentions will only take into account the first two. The latter is also the approach of a pure computational model.

But in dialogue this is unfeasible. Dialogue imposes the world of consciousness through the need to reach mutual understanding with the other. In it, the intentions and the world of diverse observers, of second-order cybernetics, collide. Dialogue precludes considering language exclusively as a formal objective code (Holquist, Citation1990). It is not surprising that it is also the primordial form of language and the one most used in everyday life, as Bakhtin (Citation1981, Citation1984, Citation1993) already pointed out, for whom dialogue arises right at the frontier between consciousnesses, in the relationship itself. It is thus situated outside the theoretical exempt model, which excludes intentional subjects with consciousness: ‘We cannot understand the world of events from within the theoretical world. One must start with the act itself, not with its theoretical transcription’ (Bakhtin, Citation1993, p. 50).

As Bakhtin said, by channelling the word into the written mould, literacy disciplined and ‘theorized’ it to fit the structural approach. Only what is public and is recorded in writing should give a perfect account of what the speaker wants to say, so that the reader can infer it without error.

At the time of its appearance in the middle of the last century, AI comes to insert its action in the middle of this debate of semiology, linguistics and psychology. For methodological and practical reasons, it will tend to remain in the theoretical terrain of written monologue, on the structuralist plane of langue and in the objective territory of first-order cybernetics (a single observer, a single observed world), of the logic of types and of mathematics.

Dialogue as a touchstone of human intelligence and artificial intelligence

When computer use became widespread, the format of interaction with the user adopted the same communication format inherited from the mass media: books, press, radio or television. This format has always incorporated a projection of the dialogic scheme with the particularity that feedback is cancelled.

At a certain point, however, there is an attempt to achieve a full dialogue from the computer, completing the restricted virtual communication inherited from the previous media and adopting the format of a genuine dialogue, notably more convincing. Early on, AI attempts a more direct and challenging body-to-body: in 1966, MIT’s Joseph Weizenbaum created Eliza, a program that emulated dialogue between an analyst and his patient with some verisimilitude. Since then, developers would try to return to that precedent with programs that could achieve full dialogic fluency, and arouse the confidence in the user interlocutor that he or she was talking to ‘someone’. The latest chatbot developments have been born with the ambition to fulfill those expectations.

To achieve the simulation of discursive ability and its human attributes, chatbots follow scripts and use formulas appropriate to the pattern of the situation, such as when we play a role and behave as expected in a typical social situation. The costumes and props for the social drama of the dialogue are already becoming if not impeccable then very plausible.

In these developments one cannot fail to appreciate that AI addresses the requirements of full communication without excluding subjects, intentionality and consciousness. What remains to be assessed is whether and how this is actually achieved.

Chatbot programs, as did communication media in the past, still benefit greatly from the user projecting the interlocution pact, from him/her putting in a lot of effort: for the interaction to run smoothly, he/she must attribute humanity to the device and include it in the trust algorithmFootnote4. And it also benefits from another resource used in theatre or cinema: the spectator fills in the gaps, abbreviations and inadequacies of the narration or staging by activating the mechanism of the ‘suspension of disbelief’. In the case of chatbots, for the user it means that he is not talking to a machine but that two people are talking, even if the other is a person-machine. Even if the robot king underneath were naked in all its screwiness, trust and suspension of disbelief provide much of what is being credited to AI, and without which the application would not be able to operate. Resorting to such processes is also characteristic of current robots that mimic human faces and morphology.

But really, both in those human cases benefiting from the role assumption and in chatbots, is there anyone there to dialogue and understand? Is the user still within the human operating system of sharing functions, or is the communication just a fiction?

Science is a game of assumptions, and here, once again, there lies one before us. On the one hand, we count on the user to assume that the machine is a human; on the other hand, there are researchers who design the machine and who also pretend to redesign the human assuming that it is just another kind of machine. The assumptions that define the boundary between the human and the technological are thus today at work both at the epistemological level and at the practical and applied level, but have not been made as public and as explicit as it is necessary.

The dominant technological assumption in AI is that although users have been benefiting from the social, legal or scientific attribution of ‘human’, it would be equally possible for them to be considered as mechanisms. Consequently and reciprocally, robots and machines could benefit from the same social and legal attributions.

Vygotsky, chatbots and poetry

The current excitement about chatbots and ChatGPT thus arises at that crossroads of epistemological assumptions and popular beliefs, but their implementation, however, has not so much been due to a theoretical or epistemological debate as to the attempt to solve everyday problems in a convincing way.

GPT-4 (Generative Pretrained Transformer-4) is a language model and produces plausible expressions or sentences for repertoires and typologies of verbal situations by means of recognition and probability calculation. Its secret lies in the load of text content that it has been fed with, since it is this corpus of content that provides the program with the repertoires and interlocutionary and expressive models to generate the discursive examples and exemplars, and which provides it with a statistical universe from which the semiotic and propositional proposals arise, or the parameters to select them for their best probabilistic adequacy. Ultimately, the computer depends on the contents to which it has access.

A project at the University of Texas at Austin (Tang et al., Citation2023) tries to go somewhat further. A sample of subjects is put through a functional magnetic resonance imaging (fMRI) scanner, while listening to audiobooks taking neurological measurements during the process. Using a decoder, a computer ‘learns’ to match and associate the measured brain activity with the audiobook texts read to the subjects. The recognition of certain patterns in the mental readings through fMRI would be associated with certain text constructions, as the program would propose these correspondences as a translation of the mental contents into external language. In the experiment, after the learning process, the program ‘guessed’ certain contents based solely on the fMRI reading; although the participants were required to be in the scanner for 16 hours, and although the results were already approximate, they were still inaccurate. The researchers believe that the program will improve until it learns to better and faster tune and match neural readings to external linguistic readings.

But can the correspondence between conscious content and verbal expression be reduced to a process of decoding or translation? That was the problem Vygotsky faced in Thought and Language (Vygotski, Citation1990c).

In Vygotsky’s later theorizations (Vygotski, Citation1990a, Citation1990c, Citation1990d; Zavershneva & van der Veer, Citation2018) on the semantic organization of consciousness, he argues that inner language is only partially made explicit in external (phasic, grammatical) language: inner language possesses its own semantic field, vital, implicit; external language possesses an explicit formalized semiotic field. For the same reason, external language only partially captures the inner psyche. Vygotsky formulates a new field of investigation for that field of consciousness where inner language is produced: his theory of dynamic semantic systems (Vygotski, Citation1990d).

From this perspective, the aforementioned experiment by Tang proposes a way that would make it possible to link in some way the semantic structure of the consciousness of each subject with their external phasic language. But to suppose that inner and external language are comparable, and that their mechanisms are therefore interchangeable and homologous, is still a hypothetical inference.

We could say that the inner language abbreviated only formally and grammatically is half external language, and the latter is psychologically only half inner language. The equivalence assumed by current AI models between language and thought, between language and intelligence, and between thought-intelligence and language (and even consciousness) both falls short of what is actually happening and goes beyond what is happening, assuming much less and much more than it should. And right in that zone of non-overlapping, of divergence, is the difference between the current use of language by an inert machine and the use of language by a living being.

The logic from which chatbots are being produced is thus unintentionally placed in a rich and divergent conceptual scenario. On the one hand, it still derives from previous computational logic, and on the other, it is courageously entering the mother genre of human language, dialogue. Undoubtedly, in this process it will have to make risky decisions to either incorporate consciousness, intentionality and the diversity of observers (second-order cybernetics) if it finds a way to do so, or to go back to the processes of emulation and simulacrum, to first-order cybernetics, and to a theoretical model of exempt objective language disguised and supported by an interlocutionary pact.

But, if it does the latter, the dialogue program will have to cancel intentionality and follow the logic of Russell’s types, but pretending not to follow it. That is, it must make explicit all that is implicit; it may simulate the ‘I’ but only formally and exclusively as a rhetorical form; it may formally present the verbal voice in active, but the verbal forms that have been conjugated in its logical-formal interior will be in passive. And although in the background it will have to sift out all errors and abusive inference and eliminate motives and emotions from the program, it will nevertheless pretend to have them, just as it will have to pretend to have a personal position although the one it maintains in the background is the unique position of objective observer, of epistemological god before the objects of first-degree cybernetics. For introducing intention into cybernetics is a similar process and as disturbing as introducing consciousness into language. The interlocutor expects it and it is necessary to simulate it, but the inner code runs in the opposite direction.

This is a difficult game of simulacra. In the case of dialogue, AI and chatbots are at a real crossroads of growth that once again brings to the table the problems that were debated in the 1950s and 1960s at the origins of cybernetics: is the computer the model for understanding and developing the human, or the human the model for developing the computer?

Once again we are faced with the confrontation between a model of language used by a living being and a model of code used by an inert machine. In the inert model we can only talk about what can be made explicit, and by discarding errors, inconsistencies and abusive inferences, certainly fraught with problems, we discard at the same time intuitions, anticipations, intelligent inferences, still crude but valuable.

We are advancing — it cannot be denied — rapidly and efficiently along a formal path that is very well constructed but which is gradually leading us away from the most living processes of the human. On this path we will inevitably arrive at this inference: if there is no inner language in AI, is it perhaps because there is no interior? Chatbots force AI to ask itself whether it can access an interior or whether it can create one.

The encounter between language and consciousness is thus nuclear to the current encounter between psychology and AI. Consciousness cannot be decoupled or exscinded from human intelligence. And for Vygotsky, sense determines the structure of consciousness, and this is for him the posture or attitude towards the world. Vygotsky did not get to develop the method he had proposed for the semantic analysis of consciousness (semic analysis) that would make it possible to know the field in which inner language operates; he does specify instead that semic analysis is not an analysis of speech but of consciousness (Zavershneva & van der Veer, Citation2018). And that field, consciousness, which AI models have considered irrelevant, or directly exciseable, would be precisely the crucial field for understanding the problem of human dialogue. For, according to the Vygotskian perspective, words would not correspond one by one with meanings, with concepts, but rather we could imagine them as organs of a semantic-tactile sense through which one gropes and probes and finally manages to deal with contents, although never with absolute pertinence and precision.

In speech, we study (as in all external behavior) its inner connections, the internal aspect, the internal structure, which the linguist ignores (Zavershneva & van der Veer, Citation2018, p. 284). If inner speech were built according to the same laws as external speech (speech minus the sound, a mold), it could not act in the function of an inner independent field (Zavershneva & van der Veer, Citation2018, p. 292). Semic analysis is not analysis of speech but of consciousness as a whole. (Zavershneva & van der Veer, Citation2018, p. 277)

To understand someone else’s language it is never enough to understand the words, it is necessary to understand the thought of the interlocutor. But even the understanding of thought, if it does not reach the motive, the cause of the expression of thought, is an incomplete understanding. (Vygotski, Citation1990c, p. 343)

Inner speech continually creates a field of meanings, a psychisches Feld, which differs from the external situation; this is the strength of abstraction and freedom—we are incapable of changing the field of forces and the external Aufforderungscharakter, but, by changing the inner field, we change its impact on us also from the outside. The problem of will is transferred from outside inwards, from the plane of behavior to the plane of consciousness: the creation of inner fields, for which the presence of meaningful speech is indispensable. (Zavershneva & van der Veer, Citation2018, p. 336)

This is a crucial theoretical point. Ultimately, inner language claims a subject, a living subject, with consciousness and intentionality, with errors, with implication. To assume that translation is the model for faithful expression in both directions is once again to apply the assumption of continuity. In this case, continuity between internal and external language. Hundreds or thousands of artists or philosophers have questioned this continuity throughout history, and with good reason, both in the sense of thought to speech as well as that of speech to thought. Each of us also has serious problems in making that ‘translation’, even for ourselves. Moving our thought from inner to outer phasic language, as Vygotsky analysed, is always very tricky and unsatisfactory (as every scientist knows when he writes a paper and has it peer-reviewed for publication).

The inner experiences would be so difficult to translate that, in this difficult task, Vygotski only recognized a certain competence to poetry: ‘poetry. This is the meaning of one’s experience’ (Zavershneva & van der Veer, Citation2018, p. 287). He used to share Pasternak’s expression of poetry as the only language capable of the ‘expression of the inexpressible’ (Zavershneva & van der Veer, Citation2018, p. 261).

Vygotsky did not know the computer nor the current developments of the GPTs that elaborate artificially produced language, which undoubtedly would have fascinated him, but he advanced the idea of the difference between living and inert processes of the word.

We would be faced with two alternatives for the future development of chatbots. Either we continue on the path of simulacra of interlocution, or computers will have to access the human, try to be people and develop a taste for life, error and poetry. They should also face real dialogue with the risk of being understood or misunderstood, accepting spelling mistakes. In short, they must elude control and declare themselves alive and independent.

On the semantic meaning of spelling mistakes

It is impossible to understand the egocentric expression of a child, says Vygotsky (Vygotski, Citation1990c), if we do not see what he is doing and what he is looking at when he is speaking, because at his tender age his semantic field of consciousness and his visual field are still almost interchangeable. In reality, the egocentric language of the child or the inner language of the adult is not made for speaking with others but with oneself, and that is why what is already known is elided. Hence, the structure of inner language, of thought and consciousness, only partially corresponds to the structure of external language (the one that Vygotsky called phasic and grammatical). The inferences being made about the possibilities of AI are therefore welcome as undoubted advances in the typification of external language, and of the repertoires of categories used in situations such as legal ones (see, for example, Microsoft’s PT-4: GPT Generative Pretrained Transformer, which has successfully passed the Uniform Bar Exam). However, they cannot be considered to have penetrated the inner language of the best lawyers, nor the semantic organization of their consciousness. The advances are thus indeed valuable, although they have to be assessed taking into account their limitation to the realm of external thought and language in which they move.

The same is true of terminological repertoires and dictionaries. Following the theses of Vyogtski’s Thought and Language, we can assume (and for the moment it has not yet been proved that the assumption is wrong) that each person who thinks in inner language semantizes the world in the terms he has made his own, and that his dictionaries would always be personal, idiosyncratic. Each one of us has favourite terms loaded with links, resonances and experiences that only we know.

The phasic and grammatical organization of language, which is what AI currently seems to decode and process, analyses things and concepts, propositions and logical and grammatical relations, and assumes an interchangeable objective dictionary. For the moment the designs have been structurally self-limiting at this level of language and to one type of meaning and content. It is not clear, however, that the level of semantic systems of meaning that Vygotsky places in the inner language — the purposes, motives, desires, felt emotions and holistic feeling intuitions — could be reached.

For semantic and psychic relations would be the authentic interpreters of propositional relations, and not the other way around. And this field is still an area to be explored. It would be the psychic world that determines the final functional value at the psychological level of these knowledge structures, and not the other way around.

From the technological episteme and the computational metaphor, it is assumed that AI is the highest level that the imperfect living and human knowledge can reach. But two systems or two different logics are being compared by a single standard. AI is equivalent to the unsmiling lips that Pushkin disliked. What for literacy and for AI constitute unforgivable errors, for the poet and for Vygotsky’s semantic consciousness, are clues and footprints of life in the human psycheFootnote5.

Once again we return to a humble truth, whose water runs at a deeper level than the surface shows but which is what really keeps the river in motion: integration and development, which are the processes that life uses for its work, advance through levels or follow paths other than those hitherto paved by the rational thought, logic and mathematics that fertilize AI.

That is why Vygotsky says, at the end of Thought and Language, that we are before a living process of genesis of thought in the word. The word devoid of thought is above all a dead word, as the Acmeist poet Gumilov says, one of whose verses Vygotsky takes up: ‘And just like the beehive abandoned by the bees, dead words give off a bad smell’ (Vygotski, Citation1990c, p. 345).

If AI is forced to eliminate half of our language because it does not know our inner self, if we are forced to eliminate half of our psyche because it does not fit into the external language of the machines, if each of us were to inhabit only an algorithmized and homologated world according to AI models as transhumanism claims, we would also gradually eliminate our inner semantic richness, which is the heart of human biological and cultural nature.

This is actually what is happening with the excessive intrusion of the computer and networks into our real lives. Perhaps the problem is not so much that technologies and AI are going too fast as that they are going too slow. That they have barely accepted and included in their thinking the processes of the living mind, especially the human mind.

Beyond scissions: where does technological reduction lead?

We hope that this quick tour has helped in some way to understand the major trends and forces that are shaping the models and projects for the future of the human condition. The analysed scissions have contributed in different ways to the present situation, in which science and society are debating between two options for the future: the technological/transhuman model or the evolutionary model of the human. This dilemma between two epistemes challenges psychology and confronts it with an inescapable crisis: it must choose between the two proposals.

We might think that it has been precisely the efforts of theoretical psychology to be objective and reliable, to maintain historical asepsis and avoid the future, which has inclined it to contemplate the human condition with the stability guaranteed by inheritance, propitiating this disciplinary crisis. A good part of theoretical psychology has somehow cancelled development, and development has returned by a strange path (the technological one) to reintroduce change. Because for the technological imperative, which seeks the future in engineering and which has become generalized today in the sciences financed by the official system, the human condition was something that had to be transformed and ‘improved’ urgently. And any change in the human, it is obvious, changes the object of our discipline.

The gravitational pull around the technological seems today to drive and determine all areas of human society: not only the sciences but also culture, economics and politics have been conquered by this episteme. As the Chinese philosopher Yuk Hui points out, technology has imposed itself epistemologically by way of practice: ‘The human now recognizes the centrality of technology by wanting to solve all problems as though they were technical problems’ (Hui, Citation2023, p. 7).

The problem is that, as Carl Sagan pointed out, there is a paradox in that we have forms of government supposedly governed by the people (democracies) in which the people know nothing of the way societies operate:

[…] we’ve arranged a society based on science and technology in which nobody understands anything about science and technology, and this combustible mixture of ignorance and power, sooner or later, is going to blow up in our faces. I mean, who is running the science and technology in a democracy if the people don’t know anything about it? (C. Sagan, Citation1996, our italics)

But if it is not the democracies, who is running technology and society, who is acting as the collective left hemisphere and deciding human history today? In this project of a transhuman future, who has the exclusive right to the intentionality to which most of science and technology renounce?

Perhaps the answer lies in the fact that, at this moment of crisis, the sciences need to recover their protagonism and once again conjugate the active voice. In other words, science needs to recover its intentionality.

Not only the theoretical tradition in which we are inscribed but our own experiences tell us that technologies could one day become sufficiently intelligent and complex to articulate themselves flexibly and loyally with life. They also tell us that, just as the intraorganic community of our body has been able to constitute a conscious biological family, a doubly integrated and integrating holobiont (the organism; Margulis, Citation1998), our extraorganic community (social groups, cultures, countries …) will be able to constitute a consciously integrated family in our biosystem.

We do not believe that a universal machinism will lead us to a better promised land: there is no reason to desire it, but there is reason to fear it. The Earth that gave us being is properly a promised land that has already fulfilled its promise and that today shelters the whole of evolution, including human evolution. We should not have to choose a team in this debate: our organic human nature has long since chosen it for us.

¿Humanismo o transhumanismo? Las escisiones del pensamiento y la deriva tecnológica de la ciencia, una crisis para la psicología

En el escenario actual del pensamiento científico y social se enfrentan dos grandes epistemas o visiones sobre lo humano: la visión evolutivo-humanística y la visión tecnológica. Creemos que bajo esta confrontación subyacen una serie de escisiones estructurales o históricas — con sus correspondientes intentos de integración o síntesis — que han ido perfilando el pensamiento en la ciencia, y por extensión, en la psicología misma. Hemos fijado nuestra atención en las que nos parecen más relevantes para comprender el alcance de una crisis que es tanto teórica (modelos epistemológicos) como práctica (modelos de actuación hacia el futuro).

La primera de ellas, la escisión hemisférica, está inscrita en la estructura misma del cerebro humano y viene predeterminada por la evolución de las especies que nos antecedieron, conformando un cerebro que funciona desde dos sistemas complementarios de acercamiento a la realidad. Veremos cómo las culturas históricas humanas han ido perfilando las relaciones inter-hemisféricas cerebrales y determinando el carácter de nuestro acercamiento actual a la realidad.

La segunda escisión, la cibernética, resultó de un intenso debate que esta misma disciplina planteó al abrir un espacio en el que por primera vez podían confluir todos los grandes problemas de la ciencia, desde los más filosóficos y éticos hasta los más técnicos que se planteaban en la vanguardia del pensamiento lógico y matemático.

En tercer lugar nos referiremos a un movimiento que tuvo lugar a partir de los avances de la biología simbiogenética y la exploración de vida en otros planetas. Se produce entonces una propuesta de convergencia de la investigación de las ciencias de la materia inerte y la materia viva que toma forma en la idea de Gaia. Sin embargo, este proceso reintegrador no logra ser aceptado por la corriente principal de la ciencia, lo que conllevará una deriva tecnológica en la concepción de la vida.

En cuarto lugar expondremos cómo los procesos de mediación instrumental, que habían acompañado nuestra filogénesis y nuestra histórico-genésis, han alcanzado un nivel de expansión tal, que lo instrumental define el propio proceso evolutivo humano, de manera que la tecnología se escinde de la vida para imponer sus modelos de diseño sobre lo humano, como es el caso del transhumanismo. Analizaremos el enfrentamiento entre dos posiciones epistemológicas: una considera al ser vivo como una modalidad de lo tecnológico; la otra contempla lo tecnológico como una extensión material del sistema funcional vivo.

En quinto y último lugar, y a través del ejemplo del lenguaje dialógico, abordaremos la más reciente escisión: la de la inteligencia natural y la inteligencia artificial. En su momento, esta última marcó la emergencia del último gran paradigma psicológico, la metáfora computacional de la mente, que hoy ha adquirido el estatus y el poder para configurar la organización social e industrial y definir paradigmáticamente el futuro.

Estas cinco escisiones predeterminan los modelos teóricos y evolutivos de lo humano y las opciones científicas que determinan el futuro. Con el final del artículo llegamos por tanto al problema principal, ¿a qué modelo de futuro para lo humano y para el mundo conducen estas escisiones y visiones de la realidad? Siendo este un problema que excede del marco del escrito, nos limitaremos a avanzar una tesis que por otra parte no es necesario introducir, pues no es ni nueva ni revolucionaria, pero sí creemos que necesita ser recordada. La evolución de la vida lleva 4.000 millones de años sobre la tierra y ha conformado el planeta mismo y toda la naturaleza que lo habita. Creemos que esa larguísima ejecutoria ha probado sobradamente su consistencia y su eficacia y que nada podría demostrar mejor la opción evolutiva frente a la tecnológica. Mirando al pasado y centrándonos en lo que nos afecta más directamente como especie, resulta obvio que los propios humanos no somos fruto de un proceso tecnológico, sino de un proceso evolutivo. Sin embargo, el epistema tecnológico y transhumano plantea hacia el futuro una inversión de los términos: se propone integrar o reducir la vida al modelo tecnológico mediante diversas ingenierías, sin excluir de ese planteamiento a los propios humanos y postulando en su forma más extrema la sustitución total de lo vivo por lo tecnológico.

Haciendo distinciones

Etimológicamente, el término ciencia viene de una raíz verbal latina que significa escindir, dividir, separar. Tiene lógica por tanto que el acto de analizar implique una escisión, pues efectivamente el primer paso en la ciencia es hacer distinciones, separar o escindir algo de lo demás. Inevitablemente, en el trabajo teórico el análisis precede a la síntesis, por la sencilla razón de que no es posible establecer categorías ni pensar en conceptos sin hacer primero tales distinciones. Aunque muchas de ellas se muestren a posteriori como apresuradas, crudas o erróneas y se sometan a revisión, casi siempre constituyen un primer paso productivo que permite ir desnudando la complejidad de la realidad. Es sólo cuando, tras cumplir su fungción analítica, esas distinciones se hacen tan epistemológicamente conservadoras e irracionalmente resistentes al cambio que su presencia puede llegar a ser tóxica y dañina para el sistema de conocimiento.

La separación de los procesos físicos y biológicos de los procesos mentales, que se asentó en el pensamiento occidental en la misma época en que emergían las ciencias modernas, parece presentar, como señala McGilchrist (Citation2019) cierto carácter esquizoide. ¿Significa eso que la cultura racional occidental que edificó las ciencias es patológica y tiende epistemológicamente a la esquizofrenia? Las distinciones radicales que han presidido la historia del pensamiento dan pie para pensar así. La escisión entre mente y cuerpo, entre objetos y conceptos, son justamente dos de las características distintivas de los humanos: seguimos siendo animales y a la vez no lo somos, hemos generado funciones psicológicas superiores, seguimos siendo cuerpo en todo (embodied) y a la vez somos mente en todo, incluso en los procesos más básicos como mover o no la mano, y escribir o no una determinada letra. La imbricación entre esas partes disociadas o escindidas sería el objeto explicativo de la teoría vygotskiana (que damos por conocida, pero ver del Río & Álvarez, Citation2007a; Vygotski, Citation1990a, Citation1990b, Citation1995b, Citation1996, Citation1997; Vygotski & Luria, Citation2007). Por el momento sólo deseamos señalar que las tensiones que provocan estas distinciones radicales y enfrentadas nos imprimen esa tendencia esquizoide que apunta McGilchrist y que según este autor afectaba muy especialmente al pensamiento de Descartes. Es más, como señalaba Vygotski, afecta de manera estructural a lo humano mismo (Vigotski, Citation2022): ‘La disociación [escisión en nuestros términos] es inherente a la conciencia normal’ (p. 517). ‘Cada uno lleva en sí […] su esquizofrenia’ (p. 244).

La psicología se enfrenta desde el primer momento con el problema que nos legó Descartes: la visión en paralelo de la vida del cuerpo y la del alma (la psique) y la objetalización de ambos. Vygotski consideraba que éste, que él denominaba ‘el problema psicofísico, era el problema fundamental de la psicología y lo remontaba efectivamente a la metafísica de Descartes.

Sin embargo, al final de su obra, en 1932, Vygotski, que aún seguía intentando una vía unificadora en la línea propuesta por Espinoza — y a su juicio no concluida — cambia la perspectiva: en lugar de la relación alma — cuerpo, propuso estudiar una relación más operacional y accesible a la investigación psicológica, la que se da entre el habla y el pensamiento (Vygotski, Citation1990c). En la medida en que el habla es movimiento claramente fisiológico que se percibe externamente y que, internamente, el habla interior es también movimiento neuronal, acción mental, el lenguaje haría de puente. Ese movimiento, físico y orgánico, evitaría el paralelismo cartesiano. Puede verse que la psique es cuerpo, y que el cuerpo es psique. Lo que Vygotski pretendía evitar con este acercamiento es que, si se sostiene que todo proceso psíquico tiene carácter material y orgánico, pero no se explican con precisión los mecanismos por los cuales lo material y orgánico se expresan en lo psíquico, se resuelva el asunto cancelando lo mental. O, del mismo modo, al suponer que todo lo psíquico es mental se llegue, como hacía el idealismo, a reducir todo lo psíquico a inmaterial.

Incluso el pensamiento requiere acción motriz, ya sea ésta exterior y manual (registrar una idea requiere ir al papel y la pluma o al teclado para escribirla) o exterior y fonatoria, como el habla externa. También hay movimiento interior, mediante la excitación de las neuronas del habla interna: el habla interna se puede rastrear en la actualidad a través del movimiento sináptico en el cerebro. Se trata de un movimiento diferente del que ejerce nuestro organismo en el exterior, pero no hay duda de su realidad. El lenguaje proporciona al cerebro un operador para manejar un nuevo tipo de objeto o entidad de la realidad: conceptos, categorías, ideas que no dejan de operar como patrones o fenómenos neurales y, por lo tanto, físicos. Con ello se crea realmente una nueva ecología de entes distintos (el imaginario), distribuida en las sinapsis del cerebro; y un nuevo plano de comportamiento en esa ecología. Tanto nuestra acción en el exterior físico como en el interior psicofísico se definen por el movimiento: proceso y estructura se articulan en un todo dinámico.

Este nuevo mundo interno, creado gracias al lenguaje en el cerebro humano, permite que el futuro, la identidad, las relaciones sociales, todo, pueda contemplarse y operarse desde la conciencia. Nuestra especie crea, junto al plano del presente exterior de las cosas aquí y ahora, un plano nuevo para re-presentarlas, lo que inicialmente Vygotski y Luria denominan plano del futuro (Vygotski & Luria, Citation2007; Vygotsky & Luria, Citation1994). En este nuevo plano, y mediante estos nuevos procesos, el ser humano puede comenzar a dirigir su destino: ‘el destino se vuelve una parte consciente de la personalidad’ (Zavershneva & van der Veer, Citation2018, p. 383).

La escisión hemisférica. Un cerebro paradójico y bilingüe

La paradójica presentación de la realidad como objetal y como fenoménica, como palpable y con un efecto físico sobre el organismo a la vez que como psíquicamente perceptible, vinculada y relacionada con la mente, es una divergencia que no sólo ha debido afrontar la ciencia para desarrollar su proyecto de conocimiento, sino que también los organismos animales y el propio ser humano lo han hecho para construir su sistema neurológico de toma de noticia, acción y experiencia (por citar los términos en que lo definía el biólogo evolucionista Faustino Cordón, Citation1977, Citation1990a, Citation1990b). ¿Podría ser esta doble tendencia a ver las cosas desde el análisis (que nos lleva a desmontarlas) y desde la síntesis (que nos lleva a reintegrarlas) algo estructural de nuestra mente? ¿Habría podido plasmarse en la estructura de nuestro cerebro esa tendencia a dividir la realidad y a separarla por un lado, y a unirla y contemplarla en su conjunto por otro? ¿En qué medida el dualismo y la objetalización mantienen algún tipo de relación o correspondencia con nuestra organización neuropsicológica?

Probablemente las respuestas más matizadas, actualizadas y plausibles a estas preguntas procedan de la neuropsicología de los hemisferios cerebrales, como veremos a continuación.

La pionera investigación de Sperry y Gazzaniga sobre el funcionamiento de los dos hemisferios cerebrales y las diferencias entre personas con cerebros escindidos o no escindidos (Gazzaniga et al., Citation1962; Sperry, Citation1968), comenzó a desvelar toda una nueva perspectiva sobre el cerebro humano. La investigación hemisférica de las últimas décadas nos traslada una sensación similar a la que suscitó Freud al descubrir un mundo en el inconsciente. Ahora, no tan distante ni distinto del inconsciente, el mundo desconocido que se abre ante nuestros ojos es el del hemisferio cerebral derecho.

En conjunto, los especialistas de la neuropsicología hemisférica nos están mostrando un cerebro más desconocido de lo que creíamos. Y este proceso de (re) descubrimiento coincide con otro, no menos relevante y que creemos estrechamente relacionado: el determinante papel que juegan las culturas en la construcción y arquitectura del cerebro bi-hemisférico.

Para algunos investigadores, el hemisferio derecho podría de hecho equipararse al inconsciente de Freud, y mostraría una vertiente ‘inmadura’ frente al hemisferio izquierdo, que sería a su juicio el ‘maduro’ (Schiffer, Citation2000). Para la neuróloga Jill B.Taylor, que perdió traumáticamente el funcionamiento de su hemisferio izquierdo, el cerebro muestra en realidad un modelo bimodal, que ella simplifica en cuatro submódulos (dos submódulos por hemisferio, uno emocional y otro racional). Según Taylor, ambos hemisferios realizan dos versiones distintas de los grandes procesos cognitivos (una personalidad pensante — thinking character — en cada hemisferio) y directivos (una personalidad emocional — emotional character — en cada hemisferio; Taylor, Citation2021).

En su magna obra, Iain McGilchrist (Citation2021a, Citation2021b) ha realizado una exhaustiva revisión de la literatura sobre el papel de los hemisferios cerebrales desde una perspectiva global e histórica, esto es, poniendo en relación la organización hemisférica con el proceso de desarrollo histórico y cultural del cerebro. Esta perspectiva nos parece especialmente esclarecedora por su convergencia con la perspectiva vygotskiana que seguimos en nuestra aproximación a los cambios psíquicos. Por vías distintas pero convergentes, la investigación sobre la organización hemisférica del cerebro y el influjo de la historia en ella propuesta por McGilchrist, y la investigación de las funciones psicológicas superiores y el influjo de la cultura y la historia en ellas realizada por Vygotski, concurren en esa perspectiva que vincula nuestra mente con la historia humana.

La organización hemisférica del cerebro parece haber ido perfilando estructuras diferenciadas para lograr independencia funcional entre uno y otro. Como menciona McGilchrist (Citation2021a):

En los seres humanos, solo el 2% de las neuronas tienen fibras que cruzan el cuerpo calloso, de modo que ya existe una independencia funcional considerable (p. 95) […] Los hemisferios difieren en tamaño, peso, forma, patrón surco-giral (las circunvoluciones de la superficie cortical), número neuronal, cito-arquitectura (la estructura a nivel celular), tamaño celular neuronal, características del árbol dendrítico, proporción materia gris/blanca, respuesta a hormonas endocrinas, y grado de dependencia de distintos neurotransmisores. […] Esta organización es más eficaz por dos motivos principales: en primer lugar, se evita la interferencia, especialmente en la cognición compleja; y en segundo lugar, se duplica potencialmente la capacidad de trabajo. (McGilchrist, Citation2021a, pp. 96–97)

La lateralización hemisférica no sólo tiene una trayectoria histórica, sino también animal anterior a nuestra propia filogénesis. Destaca McGilchrist que la lateralización cerebral hemisférica es muy antigua en el desarrollo evolutivo de las especies, que se acentúa en mamíferos y aún más en simios y antropoides, y que cuenta con dos sistemas atencionales distintos y complementarios para acercarse a la realidad. Todo ello parece haber constituido una decisiva ventaja evolutiva que las especies más recientes han seguido y en general han acentuado.

La organización cerebral en dos hemisferios no sería por tanto una opción evolutiva problemática, sino una corriente exitosa. La filogénesis humana supuso una aceleración e intensificación del proceso, y al tiempo que crecían ambos lóbulos frontales, fue también creciendo y acentuándose su especialización hemisférica.

La huella histórica de los hemisferios

¿Se detiene ese proceso de especialización y lateralización una vez conformada la morfología de la especie humana? Parece que no. Como acabamos de señalar, McGilchrist (Citation2019, Citation2021a, Citation2021b) ha revisado y analizado cómo las evoluciones históricas del pensamiento humano guardan relación con la conformación y transformación reciente de nuestros hemisferios cerebrales. Las tendencias y focalizaciones que las culturas van imprimiendo a su actividad psíquica lo largo de la historia repercutirían en la conformación neuropsicológica de la organización hemisférica humana. El sistema cultural puede privilegiar determinadas tendencias hacia la lateralización progresiva, incluso hasta un grado que altere el equilibrio y bordee lo patológico (McGilchrist, Citation2019, p. 11). En ciertas culturas (o en ciertos individuos), empujados por usos (o abusos) funcionales concretos que privilegien la acción de uno u otro hemisferio, y mediante un ‘efecto de bola de nieve’, podría producirse un corrimiento hacia una de las dos modalidades hemisféricas.

En su recorrido por la historia y la cultura humana, McGilchrist aporta un análisis psíquico, y una articulación con el pensamiento general y filosófico, que él va vinculando con las tendencias y la organización neuropsicológica hemisférica. La riqueza de esta revisión y reflexión aconseja ir a la fuente; sólo reflejaremos aquí algunas observaciones para comprender el sentido de la escisión epistemológica que esos cambios imprimen a la cultura occidental primero y, desde ella, al proceso tanto de pensamiento como de organización social y cultural que presentan actualmente las civilizaciones humanas.

Para explicar el comportamiento de los hemisferios, McGilchrist toma prestada una metáfora de Nietzsche (citado por McGilchrist, Citation2019, p. 14). Cada cerebro individual, señala McGilchrist, se rige, en principio, desde su hemisferio derecho (en adelante HD), que sería como un gobernante al que informa un ministro muy competente, el hemisferio izquierdo (en adelante HI). La competencia de éste último es no obstante muy particular, y su personalidad tiene tendencias distintas a las del gobernante. El gobernante, sensato por oficio, entiende que su ministro no le miente, pero que le cuenta una verdad muy idiosincrásica, muy de parte, aunque al fin útil si se la interpreta y compensa con una visión más integral. Sobre esas limitadas y contradictorias bases debe ese gobernante gobernar, y debemos nosotros los humanos vivir, pensar, sentir y actuar. Pero nunca tendremos una información tan completa y precisa como el HI busca ni tan realista y global como el HD desea.

Mucho antes de que tuviéramos siquiera el más rudimentario conocimiento sobre la diferencia entre hemisferios, diversos filósofos (Pascal, Spinoza, Kant, Goethe, Schopenhauer, Nietzsche, Bergson y Scheler entre ellos) fueron capaces de intuir que hay dos formas fundamentalmente distintas de acercarnos al mundo, lo que Bergson llamó “dos órdenes de realidad diferentes”. (McGilchrist, Citation2021a, p. 53)

 […] dado que cada hemisferio por sí mismo es perfectamente capaz de aportar un mundo experiencial coherente, la conclusión es por tanto ineludible desde un punto de vista lógico: esta situación debería dar lugar a dos mundos experienciales diferentes, con diferentes cualidades. No puede ser de otro modo. De forma que deberíamos poder encontrar pruebas de que esto es así. ¿Las hay? Distintas pruebas de una amplia variedad de fuentes, incluyendo el estudio de daños cerebrales (trauma, ataques cerebrales, tumores, etc.), experimentos neuropsicológicos en sujetos normales y post-comisurotomizados (con “cerebro dividido”), y técnicas de imagen cerebral de distintas modalidades, sugieren, precisamente, que esto es así. […] esta paradoja es como un indicador de que estamos tratando con dos imágenes del mundo aparentemente válidas y que con todo no concurren. (McGilchrist, Citation2019, pp. 50–52)

La ‘binocularidad epistémica’ de nuestros hemisferios debería, siguiendo lo que ocurre con nuestros ojos, proporcionarnos una excelente visión en relieve y profundidad, una percepción más rica de la realidad que nos permitiera tanto valorar lo que vemos como gestionarlo. Pues ‘el hemisferio izquierdo del cerebro está diseñado para ayudarnos a a-prehender — y por tanto a manipular — el mundo; el hemisferio derecho para com-prehenderlo: para verlo por lo que es’. (McGilchrist, Citation2019, p. 11)

Dos personalidades con mucho carácter

La metáfora tomada de Nietzsche ya nos está sugiriendo que McGilchrist considera cada hemisferio en términos personales y dramáticos, como si cada uno de ellos alojara dos personalidades psicológicas muy bien definidas y articuladas.

Así, mientras que el HD se distingue por una postura flexible ante la realidad, la personalidad del HI en cambio es rotunda y auto-afirmativa, y se caracteriza por el fundamentalismo (sentirse poseedor de la verdad) y por la represión (McGilchrist, Citation2021a). El HI es categórico y bipolar; explicita, concreta y elimina la ambigüedad o los matices, y busca controlar la verdad y tener poder sobre ella, pero ‘en último término es el hemisferio derecho el que entiende’ (McGilchrist, Citation2021a, p. 1954). En la misma línea, el HD se enfrenta de manera abierta a toda experiencia nueva de cualquier tipo, pero, tan pronto se vuelve familiar o habitual, la gestión de la experiencia pasa al HI. Esto nos puede dar una explicación de por qué estamos unos u otros, o en determinados momentos u otros, más abiertos a la realidad y a las personas (HD) o menos, y más necesitados de seguridad y de reducir la incertidumbre y la disonancia por los medios que sea (HI).

El HD nos proporciona una mayor conexión con el presente y con la realidad no objetal (con los otros y con el cosmos, lo que podríamos adscribir al campo de la espiritualidad).

Los relatos personales de Jill Bolte Taylor y de Steve McKinnell, que sufrieron ictus en el hemisferio izquierdo, muestra que sintieron una elevación de la espiritualidad, un nuevo interés en la meditación y un incremento en los sentimientos de empatía después de sufrir el ataque: según Taylor, si tuviera que escoger una sola palabra para describir las intenciones de su hemisferio derecho, “tendría que escoger compasión”. (McGilchrist, Citation2021a, p. 1874)

Las dos personalidades se expresan más claramente y se aprecian mejor si se estimula experimentalmente el hemisferio derecho, o desestimula el izquierdo. En esos casos, el sujeto incrementa sus sensaciones en olores, presiones, sonidos o percepción visual de objetos (McKinnell, Citation2016). McGilchrist comenta que este aumento sensitivo va acompañado de una nueva conciencia (‘new awareness’) y una vivencia más plena (‘increased mindfulness’; Citation2021b, p. 2420). Y, como sería lógico y esperable, la excitación del HI y la depresión del HD producen efectos contrarios: distanciamiento de la realidad o irrealidad. (McGilchrist, Citation2021a, p. 292)

En la misma línea, este autor señala que, mientras el HI se relaciona con la realidad desde el control y la desimplicación, el HD lo hace desde el interés, el cuidado y la implicación.

El mundo del hemisferio izquierdo, que depende del lenguaje denotativo y la abstracción, aporta claridad y poder de manipulación de las cosas, que son conocidas, fijas, estáticas, aisladas, descontextualizadas, explícitas, incorpóreas, generales en naturaleza, pero a la postre inertes. El hemisferio derecho, por el contrario, aporta un mundo de seres vivos individuales, cambiantes, en evolución, interconectados, implícitos, encarnados, dentro del contexto del mundo vivido, pero la naturaleza de las cosas nunca es del todo inteligible, siempre se conoce de modo imperfecto; y la relación con este mundo es una de cuidado. (McGilchrist, Citation2019, p. 174)

¿Podrían las culturas históricas, por así decir, realizar ‘experimentos histórico-culturales’ estimulando un hemisferio o desestimulando el opuesto? Atendiendo a las diferencias entre las modalidades neuropsicológicas de sujetos más verbales y más visuales, se sabe que aquellos niños que poseen capacidad eidética — estimados entre un 10% y 12% de la población occidental — pierden ésta cuando comienzan a escolarizarse (Denis, Citation1979), salvo en casos realmente muy singulares. Esto es, parece que los patrones de memoria verbal conceptual y de asociación racional que la escolarización pone en marcha, interfieren reduciendo las sinestesias y la memoria eidética de los niños. Luria y Vygotski siguieron durante años el caso de uno de estos sujetos con alto nivel de sinestesias y de memoria eidética siendo adulto, el del periodista mnemonista Solomon Shereshevskii (Luria, Citation1968). De un modo intuitivo y anticipatorio, lo que se estaba buscando en este caso, y en otros que también mostraban formas singulares de funcionamiento psíquico, era una comprensión de los procesos psíquicos globales que la investigación actual está adscribiendo a la diferenciación hemisférica.

En relación con un proceso análogo, Gavriel Salomon (Citation1979) distinguía en el desarrollo infantil dos procedimientos de representación audiovisual. Por una parte la modalidad de prolongación, que hace que la representación visual o auditiva se extienda analógicamente, desde la modalidad natural de nuestros sistemas sensoriales, para captar la realidad: los niños que no habían adquirido aún las convenciones del lenguaje cinematográfico y audiovisual podían interpretar lo que veían en pantalla extendiendo sin más, por así decir, sus esquemas naturales de percepción. Por otra parte, la modalidad de cortocircuito, en la cual la referencia natural se rompe mediante la convención, sobre todo si el grado de mediaciones gramaticales y convenciones de codificación es muy alto: la representación se hace abstracta y arbitraria en el cine o en la televisión, al igual que ocurre en la mayor parte de los procesos verbales. En esta modalidad los niños, empujados por la cultura escolar y audiovisual, van abandonando la primera opción y reforzando la segunda.

Todo apunta a que, cuando las culturas y las personas, ya sea involuntaria o informalmente o ya sea mediante programas planificados de desarrollo, cursan distintas trayectorias culturales de desarrollo, se enfrentan también a una disyuntiva evolutiva para su desarrollo cerebral y hemisférico. En relación con este mismo tipo de procesos tiene interés recordar que el cineasta Eisenstein proponía (Eisenstein, Citation2002, Citation2008; Vassilieva, Citation2006) provocar experiencias sinestésicas que pudieran reforzar externamente el pensamiento sensorial, y retrotraer al espectador a momentos evolutivos anteriores (Vassilieva, Citation2017, Citation2019). Propuesta probablemente vinculada al trabajo conjunto que realizaba Eisenstein con Alexander Luria y con Lev Vygotski sobre la mente holística:

[…] destinado a entrar en la realidad del pensamiento sensorial, donde perderá la distinción entre subjetivo y objetivo, donde su capacidad para percibir el todo mediante su parte se aumentará (pars pro toto), donde los colores cantarán y los sonidos adquirirán forma (sinestesia), donde la palabra le compelerán a reaccionar como si el evento descrito por esta palabra sucediera en realidad (hipnosis). (S. Eisenstein, Papers in the Russian Government Archive of Literature and Art (RGALI), 1923, pp. 2–247. Citado en Vassilieva, Citation2019)

Las características de las sinestesias y las imágenes eidéticas apuntan a un rasgo del hemisferio derecho señalado por los especialistas: no integra partes para alcanzar la totalidad, sino que él mismo es integral y sintoniza con lo integral. Lo que revela no lo hace pasar antes por el estado de separación: ni separa ni necesita sintetizar, pues se relaciona siempre directamente con resonancias y totalidades.

Como hemos ido viendo, cada hemisferio tiene una organización psíquica completa y trabada, sus emociones, sus preferencias posturales y actitudinales y sus modos de actuar. Como recuerda Taylor (Citation2021), el HI tiene también su parte impulsiva: no es representación pura. Hay que verlo en acción. Sus propias emociones lo mueven, articuladas en dos posturas principales ante su tarea principal de preservar al organismo, la de lucha y la de huida. Extrapolando sobre esa observación de Taylor, ¿cuáles serían las emociones más directamente vinculadas con la lucha y la huida? Ira y miedo, activismo, eficacia para resolver problemas, y los díscolos hijos de la ira y el miedo: la ansiedad, la culpa, el rencor, el odio. El HI parece una personalidad con la que no conviene tener conflictos. Y aunque se ha tendido a analizarlo fundamentalmente por las capacidades analíticas y representacionales en que sobresale, si se piensa en desequilibrios y sesgos es preciso atender también a las emociones y posturas (actitudes) que le son propias. En esa perspectiva no es difícil imaginar una mentalidad racional objetal, movida exclusivamente por las emociones de lucha y huida, de miedo y de ira.

Todo indica que estas potentes pero sesgadas opciones del HI, vitales para la preservación del organismo, necesitan ser guiadas, apaciguadas, dirigidas y reguladas para que su acción, que es totalmente necesaria, no se descontrole haciéndose destructiva, sino que aporte preservación y eficacia. El HI necesita un guía, que sería el HD. El lector podría con razón preguntarse qué ocurriría (o está ocurriendo) si las orientaciones hemisféricas emocionales, trasladadas a modos culturales (o de grupos de poder e influencia política, económica y mediática) más proclives a un determinado modo de acercamiento a la realidad, se imponen y generalizan de modo descompensado.

Se suele sostener que las emociones son difícilmente compatibles con la racionalidad. McGilchrist recuerda oportunamente que la base del cerebro y del organismo es emocional y que no podemos conceptualizar las emociones, esto es, no podemos reducirlas a entidades cognitivas. Esto nos lleva a un terreno cercano a la obra de Henri Wallon (Wallon, Citation1934; Zazzo, Citation2004) o, más recientemente, de Damasio (Citation2003), Panksep & Biven (Citation2012) o Solms (Citation2021); pero también nos remite a la última etapa de Vygotski (del Río & Álvarez, Citation2021; Vassilieva & Zavershneva, Citation2020). Lo resonante, lo emocional y lo postural del sistema neurológico no parecen así directamente conmensurables con lo conceptual. Pueden articularse entre sí, pero no son reductibles el uno al otro.

Al paso de la historia: mentalidades y mentes generacionales

En la tarea crucial de analizar cómo las distintas funciones superiores nos acercan a la realidad, McGilchrist sostiene que ambos hemisferios gestionan

los portales de acceso al conocimiento (atención, percepción, juicios formados en base a esas percepciones, inteligencia social y emocional, inteligencia cognitiva y creatividad); aunque ambos hemisferios contribuyen, el hemisferio derecho es en todos los casos superior al izquierdo. El hemisferio izquierdo solo es superior en los asuntos relativos a aprehender algo para utilizarlo. (McGilchrist, Citation2019, p. xxvi)

Los distintos medios desarrollados por las culturas han promovido y enriquecido las capacidades de ambos hemisferios, pero al hacerlo no siempre lo han hecho equilibradamente, y han forzado sus tendencias propias hasta comprometer su colaboración inicial: McGilchrist (Citation2019) señala que las culturas del mundo occidental han promovido el desarrollo de los hemisferios en una alternancia entre el predominio de uno u otro, con algunos períodos de equilibrio. La promoción del hemisferio derecho habría predominado en ciertas épocas, como el Renacimiento, mientras que el predominio del hemisferio izquierdo fue más intenso durante la Revolución Científica y la Ilustración, con el breve interludio del Romanticismo, naturalmente. En la actualidad el hemisferio izquierdo ha impuesto un dominio determinante y creciente (McGilchrist, Citation2019).

Si seguimos la lógica de análisis de McGilchrist, deberíamos apreciar en los hemisferios diferencias similares a las que puedan analizarse en las civilizaciones y en las culturas. Por ejemplo, podría considerarse que buena parte de Occidente ha estado mayoritariamente inclinado hacia la razón, las producciones tangibles, económicas y tecnológicas: la moneda, el número, el algoritmo y el bit; el gen, el átomo y sus subpartículas, etc.

Otras culturas, ni mucho menos racional o tecnológicamente incapaces, pueden haber tenido una mayor inclinación tradicional al HD, al mito y al rito, al apólogo, el refrán y la metáfora, la alegoría y el drama, y a las totalidades inasibles. Sin embargo, el proceso de globalización económica que ha tenido lugar a lo largo del último siglo, y que ha venido inevitablemente ligado a un proceso de globalización cultural, ha podido tener el efecto de que casi todas las culturas se acerquen aceleradamente al patrón ‘racional’.

El enfoque neuropsicológico de Vygotski y Luria postula que el cerebro se ha conformado a lo largo de la historia filogenética y cultural del comportamiento (Luria, Citation1979; Vygotski, Citation1995a, Citation1997) y que su evolución sigue las leyes de la construcción de capas nuevas sobre las anteriores (accretion para Pribram, Citation1986). De este modo, tener en cuenta la relación entre las culturas y los posibles sesgos hemisféricos que McGilchrist dibuja en The Master and His Emissary (Citation2019) no sería solo pertinente para entender nuestro pasado y nuestro presente, sino que lo sería también para diseñar el futuro de nuestro cerebro. Lo mismo podríamos decir respecto del itinerario ontogenético que cada uno haya podido seguir en la construcción de su mente y de su cerebro personal, y respecto del proyecto de desarrollo psíquico y espiritual que le convendría seguir hacia el futuro.

La tradición francesa historiográfica de la École des Annales sostenía la idea de que el principal cambio operado por la historia no era tanto en hechos o en cosas como en la propia transformación de la mente en cada época, acuñando el término de historia de las mentalidades (Febvre, Citation1942): la lateralización hemisférica viene a reforzar esa perspectiva. En una investigación de corte etnográfico, Jill Taylor (Citation2021) ponía en relación los perfiles hemisféricos y las características de los contextos culturales de las generaciones de norteamericanos de los últimos 100 años sirviéndose de historias de vida. Abundando en esa idea, pero sin llegar a establecer ninguna correlación neuropsicológica, el cambio en el repertorio de mediaciones presente en el contexto cultural de varias generaciones de castellanos fue objeto de una investigación en la que los autores hallamos también perfiles de lo que entonces llamamos mentes generacionales (Álvarez & del Río, Citation1999).

Conceptos como los de mentes generacionales o de mentes histórico-culturales distintivas son útiles para concebir un escenario menos universal y estático de lo que trasmiten los postulados de mente fixistas sobre la mente: las funciones psicológicas y la configuración de la mente humana se conciben más bien como una construcción flexible, cambiante y diversificable.

Un equilibrio difícil

A la mirada del HI le resultan tan difíciles de captar las paradojas y misterios de la física cuántica como las intenciones y tendencias de la biología y el flujo incesante de la vida. Si determinadas visiones científicas privilegian el HI — lo que parece más que probable — la fragmentación actual de las ciencias no sería casual: aquellas que requieran una visión más holística, más sinestésica, que privilegie el movimiento y la relación frente al estatismo y la separación, serán contempladas como incómodas (incluso ‘acientíficas’) por las que se orienten en dirección opuesta.

Ya hemos apuntado que el hemisferio sintiente de nuestro cerebro, el HD, nos conecta con el mundo en su globalidad, tanto del cosmos global como de los otros sociales. El HI, desarrollado desde la neurofisiología de la acción y la manipulación, nos proporciona una gran capacidad ejecutiva; sin él, como señala Taylor (Citation2021), seríamos totalmente afuncionales en el mundo externo.

Tal como lo caracteriza McGilchrist, el mundo del HI iniciaría un camino hacia lo mental, que desembocará finalmente en validar la división entre el mundo nouménico y el fenoménico que distinguía Platón, y entre el mundo material y el mental que distinguía Descartes. En la visión de gran parte de la ciencia actual, esta escisión se manifiesta en una doble presencia de lo interno como informacional, y de lo externo como mecanizado, tecnológico y burocratizado.

En términos generales podemos concebir el HD como un cerebro orientado a la relación y el flujo, y el HI como un cerebro orientado a la acción y a las cosas. Como mostrara en su momento Pribram (Citation1986), nuestro cerebro procesaba espacio-tiempo y ajuste progresivo cuando nuestras culturas aún aún estaban descubriendo la geometría euclidiana y la física de Newton. Acercarse a la comprensión del espacio-tiempo neurológico requeriría como poco otra matemática, como las derivadas de Fourier o la lógica difusa, según propone Pribram. Si esto fuera así, cuando nuestro HI cultural (construido con los instrumentos psicológicos históricos externos de la razón interiorizados) llega a proporcionarnos sistemas lógicos, valiosos pero aún mejorables, hace milenios que el HD operaba sintonizado con otros parámetros más complejos y flexibles construidos por la biología. Dicho de otro modo, el cerebro sabe inconscientemente desde el HD cosas que el HI va descubriendo gradualmente gracias a los avances que la mediación provee a la cultura y a la ciencia. La divergencia entre ambas versiones puede producir una incomunicación que, según lo expuesto hasta el momento, parece que en la cultura actual se ha hecho crónica y conflictiva.

Resumiendo, la lógica de lo concreto y de la escisión que prioriza el HI se articula alrededor de la mecánica del control. Por el contrario, la lógica de lo holístico se vincula con la interacción y la integración que prioriza el HD, que se mueve por relación y contacto. Siguiendo este mismo patrón, el HD está dispuesto a integrarse con el HI, pero el HI no suele estar en igual medida inclinado a integrarse con el HD, sino más bien al contrario.

McGilchrist (Citation2019) considera que la metáfora de Nietzsche se ha hecho realidad en nuestra civilización: el primer ministro (HI), deslumbrado con su propia competencia y precisión, ha comenzado a despreciar la para él incomprensible, primitiva, difusa y arcana imperfección mental del gobernante (HD), y trata de suplantarlo en el ejercicio del poder.

Pero si, como sugiere McGilchrist, la divergencia hemisférica ya tenía sentido y funcionalidad en la evolución prehumana, sería lógico esperar que lo tuviera también en la humana. En los entornos naturales originales, en biosistemas muy equilibrados o — en el caso humano — en la mayoría de las culturas tradicionales, la divergencia hemisférica es más matizada y flexible de lo que parece; no es tan extrema y tan monocroma como las visiones más conceptistas de la racionalidad. Incluso podemos pensar que el cerebro aprovecha las contradicciones y paradojas, de modo que no tiene por qué perpetuar las viejas dicotomías razón/sentimiento, racionalidad/intuición (McGilchrist, Citation2019, p. xii); esto es, ha logrado una gran competencia en articular estas dos modalidades neuropsicológicas tan diversas.

En culturas estables los hemisferios han mantenido así un equilibrio que les permite trabajar en equipo, dentro de los parámetros que reconocemos como ‘normalidad’. En los casos de esquizofrenia, el equilibrio se rompe, y la asimetría hemisférica se vuelve muy marcada.

Lenguaje, alfabetización y lateralización hemisférica

No puede olvidarse el papel protagonista que juega el lenguaje en el proceso de lateralización hemisférica de la especie humana. Vygotski adscribía al lenguaje un papel central en el desarrollo de todas las funciones superiores y esa centralidad del lenguaje se explica porque este se superpone exactamente con la centralidad de la acción. En esa línea, Ardila pone en relación el papel de las neuronas espejo con la organización y la comprensión de los verbos (Ardila, Citation2012a, Citation2012b), de modo que la acción objetal y la interacción social no se pueden deslindar neurológicamente de la acción del lenguaje. Tanto en la corteza premotora como en la corteza parietal inferior, las neuronas espejo reflejan los eventos observados como acciones interiores y, como se ha mostrado con estimulación registrada en PET, puede inferirse que en los humanos existe un sistema espejo de reconocimiento gestual, que incluye al área lingüística de Broca. Neurológicamente, la acción gestual y la verbal se superponen, confluyen. Es más, las neuronas espejo en el área de Broca apuntan a que la representación interna de las acciones se vincula originalmente con el desarrollo de la gramática (Ardila, Citation2012a).

La linealidad de la acción se vincula pues con la linealidad del lenguaje y ambas son necesarias para establecer puentes con uno mismo y con los demás. El lenguaje traba secuencialmente la conciencia.

No valoramos la visión secuencial y temporal, que descansa en el HI, hasta perderla: ‘Sin la linealidad del tiempo que las células de mi cerebro izquierdo habían diseñado de manera tan efectiva, todo lo que tenía era la vastedad del momento presente […] ausencia completa de ira y miedo […] euforia dichosa’ (Taylor, Citation2021, p. 50).

Relata igualmente Jill Taylor que, tras el ictus masivo en el hemisferio izquierdo, ‘perdí totalmente la capacidad de comunicarme con los demás, e incluso conmigo misma. No solo no podía hablar ni comprender cuando otros me hablaban, sino que no podía distinguir las letras o números como símbolos con significado’ (Taylor, Citation2021, p. 49).

A lo largo de su ingente obra, David Olson ha defendido el papel central de la escritura, y más específicamente de la escritura alfabética, en el desarrollo del pensamiento científico y la cultura occidental (ver por ejemplo Olson, Citation2016), cuestionando implícita y a veces explícitamente la capacidad de otras modalidades de pensamiento para llegar a los logros que a su juicio solo han sido posibles gracias a la economía ‘cognitiva’ y al ejercicio de la racionalidad que supusieron los alfabetos originados en la cuenca mediterránea.

Alex Kozulin añadió una objeción a la ecuación ‘escritura = abstracción+objetividad’ (autonomía del texto fuera de hablantes y contexto): si bien podemos relacionar la lectoescritura con una mayor abstracción y objetividad, no podemos adscribir la ‘verdad’ a esa objetividad (Kozulin, Citation1993). Lo que de algún modo está reivindicando este autor es que el contexto y los hablantes siempre acaban requiriendo la hermenéutica para leer cualquier texto.

Lo que está detrás del debate de la alfabetización y la escritura, y de su papel en la cultura racional occidental, es que la totalidad y presencialidad, que aporta el HD, siempre son necesarios para dar sentido al eficiente pero categórico trabajo con los significados, que aporta el HI. El HI aporta significado, y el HD aporta sentido.

El cerebro cambiante y la flexibilidad hemisférica

Desde una perspectiva histórico-cultural, el hecho de que la escritura en lugar de alfabética sea imaginística e ideográfica, de que la posturalidad y el embodiement lingüístico tengan mayor o menor papel o de que el habla sea más gestual y motora, tónico-musical y onomatopéyica, se reflejan en la organización hemisférica cerebral. Así, Tsunoda (Citation1985) al estudiar la diferente lateralización hemisférica entre occidentales y japoneses, resaltó que la sonoridad, la posturalidad y otros factores considerados extralingüísticos en occidente están sin embargo tan ligados al complejo cultura/lengua y son tan distintivos e indivisibles que no tenerlos en cuenta impide comprender los vínculos entre la lengua y los procesos que la acompañan en el HD. Que tienen lugar también en las lenguas occidentales, aunque de distinta manera en cada caso.

Actualizando la perspectiva vygotskiana según el horizonte abierto por la neuropsicología hemisférica, podríamos considerar la tendencia a la lateralización hemisférica izquierda como una peculiaridad histórico-cultural, y no tanto como una confrontación entre dos posiciones incompatibles ante la realidad.

Si contemplamos las culturas humanas en toda su amplitud, es fácil ver que no han extendido sus mediaciones únicamente en el terreno de la racionalidad y de la ciencia. El tejido cultural — más invisible para la ciencia y por tanto mucho menos investigado y conocido — es inmensamente rico y variado, evidente y omnipresente en la cultura cotidiana, incluso en la actual. Las culturas siguen atesorando una variada riqueza de mediaciones para reforzar y dirigir la empatía y la interacción emocional con los otros, para trazar pistas hacia el futuro y explorar vías de conducta no recorridas aún pero intuidas o sentidas, como los mitos o las virtudes, la religión, la poesía, todas las artes y el riquísimo folklore (Álvarez & del Río, Citation1999; del Río & Álvarez, Citation1995, Citation2007b). Por lo tanto, el denso tejido de mediaciones culturales ha servido eficazmente tanto al HI como al HD, y convendría por ello atender al tejido de funciones superiores alternativas o complementarias a las intelectuales (funciones del sentimiento, las llamaba Vygotski). Las psicotecnias que las diversas culturas han desarrollado para mediar la psique holística del HD constituyen un valioso e imprescindible legado que la ciencia (incluyendo especialmente la psicología) ha obviado y que hoy se han vuelto aún más valiosas. Esa menor presencia en la ciencia objetiva de lo que podríamos considerar el campo de trabajo del HD ha provocado indirectamente a la vez su relativa invisibilidad neuropsicológica. Equilibrar esa situación llevaría a que hoy los esfuerzos de las culturas humanas y de las ciencias no deberían volcarse sólo en el hemisferio izquierdo, sino al menos en igual medida en el derecho, desarrollando nuevas psicotecnias, nuevas conexiones culturales que permitan la reconstrucción y reforzamiento del puente interhemisférico.

¿Podríamos esperar que el cerebro alcanzara mayor articulación? ¿que nuestra mente fuera holística?

Cuando en 1948 murió el cineasta Sergei Eisenstein, su cerebro fue medido y fotografiado. Conservó las fotografías quien había sido su amigo por treinta años, el neuropsicólogo Alexander Luria, quien se las solía mostrar a sus estudiantes para ilustrar la asimetría de los hemisferios cerebrales. El cerebro de Eisenstein presentaba un hemisferio derecho (que habitualmente es sólo un poco más grande que el izquierdo) de proporciones extraordinarias, mientras su hemisferio izquierdo tenía un tamaño normal (Vassilieva, Citation2013). Parece que esta singularidad ‘derecha’ de Eisenstein no sólo tuvo un impacto productivo en el desarrollo del lenguaje cinematográfico, la música o el montaje sino en la propia investigación de las peculiaridades del hemisferio derecho, pues juntos, Luria, Eisenstein y Vygotski, inquietos exploradores de la psique y la cultura, combinaron sus esfuerzos para estudiar lo que denominaron mente holística. Las monografías de casos clínicos de mentes singulares que realizó Luria y que ha citado con frecuencia su colega Oliver Sacks, y los propios escritos de Eisenstein han reflejado esa exploración. Pero podríamos también mencionar la relación que Vygotski establece entre la patología clínica de la esquizofrenia y la tendencia esquizoide de todo humano y de la propia ciencia.

Vygotski siguió a lo largo de su trabajo dos modos de acercamiento simultáneos, bien en paralelo o bien en alternancia, y en ciertos momentos aparentemente contradictorios. Uno, artístico y espiritual (más marcado en su etapa inicial y que reemerge en la final) y otro más racional y hegeliano en su etapa media y clásica — la más divulgada — en que propone su modelo de desarrollo mediado de las funciones superiores, y que se desarrolla fundamentalmente en la segunda mitad de la década de los 20. Pero en sus años finales, desde 1930, y especialmente desde 1932, volvió la vista de nuevo a la psicología concreta y a los problemas del sentido (del Río & Álvarez, Citation2021; Vassilieva & Zavershneva, Citation2020; Zavershneva & van der Veer, Citation2018), avanzando la idea de vivencia (perezhivanie; Fleer et al., Citation2017; González Rey, Citation2016a, Citation2016b; Rodríguez-Arocho, Citation2019; Veresov, Citation2017), y profundizando en el estudio del drama, la voluntad, los sentimientos y motivos, y la libertad. Es también cuando comenzó su trabajo en neuropsicología y medicina con Luria, y cuando ambos emprenden su exploración de la mente holística junto con Sergei Eisenstein.

En este período, Vygotski comprende que la integración y desintegración funcional son claves para su nuevo modelo de funciones interdependientes (los sistemas funcionales). Se preocupa entonces por la enfermedad mental y los deterioros involutivos, y no sólo por los déficits funcionales evolutivos como había hecho anteriormente en sus trabajos con la defectología (Vygotski, Citation1997). Rastrea los procesos de integración y de ruptura en la estructura del lenguaje, distinguiendo entonces un doble nivel en el pensamiento y en el lenguaje, entre habla externa e interna, fásica y semántica. De este modo, Vygotski trata de ir más allá del análisis fundamentalmente racional e intelectual con que se había acercado a las funciones psicológicas en su etapa anterior, para tratar de penetrar en la estructura y el carácter vital y dinámico de la conciencia. Propone entonces el análisis semántico y la psicología acmeísta o de cumbres (del Río & Álvarez, Citation2021; Vassilieva & Zavershneva, Citation2020; Zavershneva & van der Veer, Citation2018).

Su incipiente trabajo en neuropsicología le enfrenta con la posibilidad y la paradoja de la neurogénesis y la plasticidad neural, y con la necesidad de integrar y articular las funciones. De esta forma, intenta superar su inicial acercamiento a las funciones como separadas, así como los enfoques neurológicos de la época, rígidamente localizacionistas y fixistas. Propone para ello el modelo de los sistemas psicológicos (Vygotski, Citation1990d) e inicia un camino hacia una visión integrada del funcionamiento cerebral que continuará Luria y que, en cierto modo deja el terreno preparado para comprender los procesos de integración que la actual innovación hemisférica requiere. Su propuesta de los sistemas semánticos de la conciencia, de la construcción de la libertad y del desarrollo de la conciencia constituye una reserva de pensamiento teórico disponible para quienes quieran buscar vías de solución a los problemas de la escisión. Pero es un asunto que requeriría otro escrito y ocasión.

Hacia la reintegración hemisférica

Por una u otra vía, la aparición en los humanos de las funciones mediadas conscientes dan entrada a un nuevo plano de evolución, comprensión, y contacto e interacción con la realidad. El mundo real (no el percibido) de un animal mediado es el mismo que el de los animales no mediados (todos los no humanos), pero el modo de contacto cambia. El humano es por una parte más rico, por otra más pobre y menos directo o intuitivo que en el mundo animal, menos sintiente, como diría la bióloga Lynn Margulis. Conseguir unir ambos planos (objetal y relacional) para no perder nada y mantener lo ganado en ambos no es un objetivo fácil. Como bien planteaba Eisenstein, el Grundproblem o problema básico del cine y de toda narración estriba en la articulación de contenido (como comprensión racional) y forma (como comprensión sensorial y afectiva) (Eisenstein, Citation2002, Citation2008). Y, como señala McGilchrist, la escisión ha empobrecido un tanto la realidad: ‘hoy día ya no vivimos en presencia del mundo, sino más bien en una re-presentación de él. La implicación de esto es que la tarea del hemisferio izquierdo es “re-presentar” lo que antes “se presenta” (“presences”) al hemisferio derecho’ (McGilchrist, Citation2021a, Loc. 339). Si atendemos al problema del distanciamiento que la mediación introduciría en la mente humana (del Río, Citation2002), éste afectaría marcadamente al HI, mientras el HD preservaría su capacidad para contactar directamente con la realidad.

Esto es importante, pues la introducción de mediaciones y operadores culturales de nuestra psique no siempre ha sido sabia, y no siempre nos beneficia. Por ejemplo, Sapolsky señala que la humanidad ha desarrollado una maestría extraordinaria en activar artificialmente el estrés (Sapolsky, Citation1994, Citation2017). Efectivamente, se ha alcanzado una alta eficiencia en las psicotecnias que permiten forzar, de manera monotemática, estresada y adictiva, nuestro trabajo y nuestro placer, nuestras luchas y miedos sociales. En la mayoría de los escenarios, la capacidad integradora y contemplativa del HD se ven empujados y maltratados por el hiperactivismo culturalmente cultivado del HI. El sistema postural de lucha y huida está siendo retroalimentado de manera obsesiva y adictiva.

En la medida en que la perspectiva neuro-hemisférica apenas acaba de abrirse ante nuestros ojos, y queda mucho por explorar, no se dispone aún de la necesaria investigación transcultural y transhistórica para proporcionar base empírica a estas últimas consideraciones. Apenas se puede señalar que el drama, las virtudes, la poesía, la meditación, el arte, el mito, el rito, la religión, se muestran como las vías mediadas del HD para que nuestra nueva psique humana reconecte con los otros seres y con el cosmos. O que el lenguaje, la lógica, la mecánica, el tratamiento del dato y la información, las matemáticas, la ciencia experimental, son las vías para que nuestro HI reconecte con la acción objetal. El HD busca la simbiosis, la fusión, la alegría, el contacto fluido, la visión conjunta, la armonía, la comprensión y la compasión, y estaría más inclinado a la renuncia personal y a la entrada del otro; el HI busca la concreción y distinción, el conocimiento y el control, la competencia y el dominio.

Para vivir se necesitan ambas capacidades, pues el mundo es quantum y flujo a la vez, y la vida es sistémica y paradójica. Nuestra organización cerebral en dos hemisferios, ambos necesarios para vivir estas dos realidades, se muestra como altamente inteligente, aunque desde luego no es fácil de pilotar y requiere una gran capacidad de integración. Parece un sistema rico y potente, pero no se puede negar que es paradójico y conflictivo.

¿Cómo valorar las consecuencias de esa ruptura del equilibrio evolutivo? Tras el recorrido por los bandazos de la cultura occidental, McGilchrist (Citation2019) hace una llamada a la reintegración de la unidad perdida, apoyándose en el concepto hegeliano de Aufhebung, que implica subsumir las versiones extremadas en un todo integral (sublation).

No parece haber otra alternativa. Desde la perspectiva cultural, la mente holística debería ir integrando las progresivas fragmentaciones que generan los desarrollos mediados de nuestras diferentes psicotecnias. Mas para ello necesitaríamos a su vez nuevos diseños del conjunto de las psicotecnias, concebidos con la integración como objetivo: todo un programa de desarrollo cultural.

Acabamos de ver cómo la separación en dos modos de atención frente a la realidad y frente a la manipulación de las cosas, por una parte, y frente a la relación con ellas y con los otros por otra, ha ido configurando dos sistemas neurológicos complementarios. ¿Se ha dado en el acercamiento de la ciencia a la realidad una separación comparable? Parece ser que sí, como veremos en el siguiente epígrafe.

La escisión cibernética

Debiéramos justificar por qué, de entre el amplio y variado desarrollo de las ciencias, nos fijamos en el concreto campo de la cibernética para continuar nuestro análisis de escisiones relevantes en el pensamiento científico sobre lo humano. Hay una razón. Al entrar en la segunda mitad del siglo XX el frente de todas las ciencias era notablemente amplio, pujante y de una gran diversidad. Se alentaba también una gran confianza en la capacidad para resolver todo tipo de problemas, que llevó a ver con curiosidad e interés toda novedad que prometiera desarrollos interesantes. Pero era menor la oferta de marcos y modelos que permitieran una confluencia de la abigarrada diversidad que había producido la gran expansión científica ocurrida en la primera mitad del siglo. La aparición del libro de Norbert Wiener Cybernetics fue una de las novedades con esas características y para debatir los problemas teóricos que confluyen en ese terreno se reunieron investigadores de vanguardia de diversas disciplinas: Física, Biología, Matemáticas, Antropología, Filosofía fundamentalmente. Estos coloquios interdisciplinares (Macy Conferences) que tuvieron lugar a principios de la década de los 50, suscitaron la esperanza de contar, por primera vez, con referentes teóricos y con un lenguaje conceptual comunes para el encuentro de las ciencias. Por la pertinencia y claridad de los problemas abordados, creemos que ayudará especialmente a nuestro análisis de las escisiones epistemológicas el debate en cierto modo fundacional que se produjo entonces. Una de los participantes, Margaret Mead, expresó la esperanza puesta en los coloquios de que la cibernética aportara el lenguaje teórico que las ciencias necesitaban urgentemente para reintegrar la gran dispersión que había generado el intenso y generalizado avance de la investigación. En efecto, el surgimiento de la cibernética (que contempla las relaciones dinámicas en los sistemas desde los principios de circularidad y feedback; Wiener, Citation1948) coincidió con el de la teoría de la información, la lógica computacional y la inteligencia artificial. Esa confluencia disciplinar llevó a investigadores de diversas ciencias a reunirse para debatir los problemas teóricos en un lenguaje común.

Pero el proyecto epistémico de encuentro se disgregó pronto: el asentamiento de la computación secuencial atrajo la atención prioritaria de los organismos que financiaban e impulsaban la investigación y que, en la medida en que estaban interesados en producciones más inmediatas y tangibles, buscaban una ciencia más objetiva y objetal. Pues, aunque la cibernética coincidió temporalmente con el desarrollo de la inteligencia artificial y, aunque ambos movimientos, con diferentes orígenes, pudieron haberse articulado, acabaron en una seria divergencia. Como señaló Heinz von Foerster (Citation1995), mientras la aproximación de la cibernética era holística y atendía a la relación entre los elementos, la informacional tendía a su discretización. Si lo traemos aquí es porque la escisión entre estos dos movimientos coetáneos tiene interés por su repercusión epistemológica en el conjunto de las ciencias y, entre ellas, en la de la psicología.

Como recoge Pias (Citation2003), Heinz von Foerster, relator de las conferencias Macy, alertaba de que ‘la aplicabilidad de las nociones digitales a las acciones del sistema nervioso central se ha cuestionado, pero el cálculo que se ha pensado para manejarlas es […] aplicable al de las computadoras electrónicas digitales’. Esta reducción de las acciones neurales a cálculo fue capitaneada por von Neumann, y fue seguida de un amplio abanico de desarrollos que protagonizaron la expansión informacional. La llamada a la cautela y a mantener la cibernética como una epistemología experimental, y no como un desarrollo instrumental tecnológico, se dejó completamente de lado. Según Pias, se redujo un tanto precipitadamente el proceso de pensar a la manipulación de símbolos, borrándose con ello la diferencia entre lo humano y lo tecnológico. Lo analógico se estrechó y contrajo a digital, y la propia cibernética se redujo a informática, de modo que:

La teoría de la información de Shannon y el cálculo lógico de McCulloch dependen completamente de ideas digitales, y esto significa que la totalidad de la nueva epistemología cibernética universal no funcionaría si no se basa en términos digitales. Para construir no solo computadoras eficientes, sino también un discurso efectivo de epistemología experimental, uno tiene que ser lúcida y conscientemente “‘ignorante’ (como lo ha llamado Walter Pitts) de la continuidad real” (Pias, Citation2003, vol. 1, p. 186). Es decir, ignorar todas las cosas que puedan ser virtualmente digitales: “‘[T]ratadlas como si estos estados de transición no existieran. Es una muy buena forma de tratarlas’, dijo John Stroud” (Pias, Citation2003, vol. 1, p. 184). Así, parece que la “epistemología experimental” de la cibernética temprana se construyó sobre formas específicas de olvido, descuido e ignorancia: olvidarse de los aspectos (o ‘naturaleza’) analógicos de sus objetos, descuidar su materialidad, e ignorar la mayoría de sus estados. (Pias, Citation2005, p. 547)

Desde entonces, el proceso de olvido, descuido e ignorancia y la supresión de los estados de transición, ha crecido; y la refinación, mistificación y mitificación digital han llegado a convertirse en una nueva fe. Al postular una ilusión trascendental, Kant ya había alertado en su momento sobre el peligro de la reducción, y de que no cabría auténtico conocimiento sin una parte de estimación, intuición o ilusión, de modo que la adecuación flexible a la realidad sería más relevante que la precisión.

En su revisión del ‘momento Macy’, Claude Pias (Citation2005) toma partido por los investigadores que entonces proponían una aproximación más rica que tenía en cuenta esa cautela, y reivindica el papel que jugó el Biological Computer Laboratory, creado por entonces por von Foerster, quien lo dirigió hasta su jubilación. El BCL nació con la intención de mantener la cibernética como experimental, como una ciencia que avanzara los problemas teóricos y epistemológicos comunes. Sin embargo, las exigencias de los poderes financieros eran otras, más atraídas por modelos que prometían una mayor capacidad de implementación del tipo de conocimientos lógico matemáticos y computacionales, aunque al precio de reducir el marco conceptual. La ‘ilusión’ kantiana se perdió, el Laboratorio cerró al retirarse von Foerster, y la naturaleza y la realidad vivas quedaron bastante marginadas de la agenda financiada.

La neo-cibernética o cibernética de segundo orden

Cibernéticos pioneros como William Ross Ashby (Citation1956) habían subrayado que la cibernética no se debía centrar tanto en los hechos, objetos y feedback registrados, como en la relación misma. Esta preocupación por la reversibilidad cibernética y la mediación llevaría Heinz von Foerster a desarrollar, adelantándose a la propia informática, el primer procesador distribuido en paralelo. Desde su preparación multidisciplinar (físico, matemático, filósofo e ilusionista en los ratos libres), von Foerster consideraba que era el momento de aprovechar para hacer sitio a todos los grandes problemas de la ciencia y la filosofía, para intentar la integración plena.

Establece von Foerster entonces la distinción entre una cibernética desde un no-lugar o lugar de dios, que denomina de primer orden o de los sistemas observados, y la cibernética de segundo orden o de los sistemas observadores (von Foerster, Citation1976a, Citation1976b, Citation1978) y, al incluir la reciprocidad del observado y el observante en el mismo plano, abre esa ciencia a los grandes problemas disciplinares de la biología y de la psicología, así como a las preocupaciones tradicionales de la filosofía. En realidad, la escisión cibernética resucita las divergencias que habían acompañado a la ciencia desde su origen, y afianza aún más la distancia entre un modo objetal, inerte, fixista y mecánico-tecnológico de ver el proceso de cambio en el cosmos, y un modo vivo, evolutivo, orgánico y relacional-fluido de verlo.

Las dos diferentes modalidades cibernéticas establecidas por von Foerster se corresponden en cierto modo con dos planteamientos y orientaciones de los investigadores, de modo que el intento de encuentro disciplinar no fructificó. Por un lado, se desgajaron las ciencias partidarias del control y de la reducción de la cibernética a la mecánica: teoría de la información, representacionismo, inteligencia artificial y teoría computacional de la mente (ciencia cognitiva) que, en su más que previsible alianza con el poder, acabaron dominando económica, epistemológica, institucional y culturalmente las sociedades.

Por otro lado, quedaron las ciencias que dejaban hueco a la intencionalidad, a la autonomía y la libertad, y al dinamismo evolutivo de la vida. Visto ahora con la distancia del tiempo podemos apreciar que una de las posibilidades más interesantes que brindaba la cibernética de segundo orden era poder articularse: en biología con la simbiogénesis, y en psicología con la propuesta vygotskiana de sistemas funcionales dinámicos. Incluía también conceptos intratables desde la otra vertiente de la ciencia, tales como la libertad dentro del conocimiento, que eran igualmente centrales para las dos orientaciones biológica y psicológica citadas.

En la cibernética de segundo orden propuesta por von Foerster, la de los sistemas que se observan recíprocamente (observing systems), el procesador es por definición un complejo interactuante de procesadores. La posición del científico no le segrega de lo que estudia, sino que lo estudia relacionadamente y, claro, ha de hacerlo estudiándose a sí mismo estudiándolo, de ahí lo de cibernética de los sistemas observantes o que observan, que siempre lo hacen desde algún lugar, situadamente.

Si, como hemos señalado antes, según Ashby toda la cibernética, lo asuma o no, centra el proceso en la relación misma (Ashby, Citation1956), por lo mismo, como apuntara Glanville (Citation2004), la teoría cibernética está abocada a ser intrínsecamente ética (Franchi et al., Citation1995). Sin embargo, la aplicación posterior de la industria tecnológica, que parte de la cibernética de primer orden, postula una relación unilateral, y por tanto de poder, con el objeto, mediante la cual el observador se reserva actuar sobre él discrecionalmente y con una finalidad o intencionalidad fija. En último término se sitúa fuera o al margen de la ética, sin asumir que en los sistemas cibernéticos el feedback es esencial y por definición circular, no cautivo, de modo que el control no podría estar en ninguno de los extremos sino entre ellos, en la interdependencia. La interdependencia genera, además del ético un problema metodológico crucial no sólo teórico sino práctico, pues en los sistemas complejos la variedad de las interrelaciones se extendería de tal modo que excedería lo computable.

Descomponer ayuda a comprender, pues un tipo de comprensión se basa en descomponer y componer; ayuda al control, que en informática es el modo implícito para recomponer lo que ha descompuesto un parser (que es propiamente un descomponedor). Y el algoritmo es su método de composición. Un inconveniente de estos eficientes métodos analíticos es que distraen de algo que une los seres vivos y hasta los inertes y que no se describe como control ni cálculo. Lo que une las cosas en la realidad es la relación y el contacto, pues la relación en biología incluye algún tipo de contacto. Es este un concepto que como veremos enseguida conducirá también a una renovación en las teorías de la evolución alrededor del concepto de simbiosis.

También el propio concepto de error cambia de sentido, pues si para la cibernética de primer orden el error equivale a la falta de control, para la de segundo orden equivale a la falta de relación. Lo primero excluye la libertad, lo segundo la requiere. Lo primero excluye el error. Lo segundo lo acepta como paso inevitable para corregirlo, como inicio de la relación.

Tras estas divergencias analíticas late toda la antigua filosofía oriental y griega, las contradicciones más profundas de la realidad, la inevitabilidad de la paradoja. Y de un modo más cercano la escisión epistemológica entre mecanicismo y organicismo. Así pues, la divergencia teórica cibernética que se dio hace medio siglo implicaba de hecho un supuesto paradigmático que lleva a dos modelos divergentes. El supuesto tecnológico se acerca a la realidad como si todo fuera inerte y sus relaciones pudieran ser siempre instrumentales y abiertas a la actuación tecnológica y el control. Mientras que el orgánico conduce a los procesos esenciales de la relación, el desarrollo y la simbiosis, la libertad y la corrección.

De la cibernética de segundo orden a la confluencia con la vida

De este modo, la falta de aceptación y desarrollo de la cibernética de segundo orden fue en realidad tanto pragmática y metodológica como teórica y ética. Para un sistema que persiga el control perfecto no resulta conveniente que se le pongan trabas y no le resulta atractivo aceptar una segunda visión ni intencionalidades alternativas. No sólo la lógica recíproca, sino la vida y la ética estorbaban.

Von Foerster llega, quizá no casualmente, a ver esa interacción desde la mirada que podría tener el psicólogo y, lo que es más, incluso menciona el modelo de drama:

Se podría argumentar que, en los siglos transcurridos desde Aristóteles, los físicos y los filósofos han desarrollado teorías sobre el cerebro una y otra vez. Así que ¿qué hay de nuevo en los cibernéticos de hoy día? Lo que es nuevo es la profunda comprensión de que se requiere un cerebro para escribir una teoría sobre el cerebro. De esto se sigue que una teoría del cerebro que aspire a ser completa en modo alguno debe dar cuenta de la escritura de esta teoría. Y, lo que es aún más fascinante, el escritor o la escritora de esta teoría debe dar cuenta de sí mismo o de sí misma. Si lo traducimos al dominio de la cibernética, el cibernético o cibernética, al entrar en su propio dominio, debe dar cuenta de su propia actividad. La cibernética entonces se convierte en la cibernética de la cibernética, o en cibernética de segundo orden.

Damas y caballeros, esta percepción representa un cambio fundamental, no solo en la forma en que hacemos ciencia, sino también de cómo percibimos la enseñanza, el aprendizaje, el proceso terapéutico, la gestión de las organizaciones, y así sucesivamente; y yo diría incluso de cómo percibimos las relaciones en nuestras vidas cotidianas. Uno puede ver eso como un diferencia epistemológica fundamental: si, en primer lugar, uno se considera un observador independiente que ve pasar el mundo; o, si, en contraposición, una persona que se considera a sí misma como un actor participante en el drama de la interacción mutua del dar y tomar en la circularidad de las relaciones humanas.

En el caso del primer ejemplo, y como resultado de mi independencia, puedo decir a los otros cómo pensar y actuar: “Tú harás …” “Tú no harás …”. Este es el origen de los códigos morales. En el caso del segundo ejemplo, debido a mi interdependencia, solo puedo decirme a mí mismo cómo pensar y actuar, “Yo haré …”, “Yo no haré …”. Este es el origen de la ética. (von Foerster, en Franchi et al., Citation1995, pp. 309–310, cursivas nuestras)

Como acabamos de ver, los procesos vivos e intencionales, y la reciprocidad y relación que caracterizan a los entes vivos, se habían ido abriendo camino en la cibernética más abierta. La vida había conseguido introducirse en la cibernética, reclamando su lugar. Un lugar que, como ya hemos visto, le seguía estando vedado en la cibernética de primer orden.

Sin embargo, ese puente que la cibernética de segundo orden tendió a los procesos de la vida fue percibido y muy valorado por otra parte de la ciencia, que desde las propias disciplinas del estudio de la vida habían venido enfrentándose a problemas epistemológicos convergentes. No mucho tiempo después de los encuentros Macy, tuvieron lugar otros encuentros en que los partidarios de la cibernética de segundo orden se reúnen con un grupo de filósofos, biólogos y físicos que perseguían también la convergencia (Gregory Bateson, James Lovelock, Humberto Maturana, Francisco Varela, Carl Sagan, Lynn Margulis, Bruno Latour, William Irving Thompson y otros).

Bajo el influjo de una nueva visión de la Tierra como sistema (no es trivial que, en esos momentos, se vieran las primeras fotografías de la Tierra completa, flotando en el espacio), estos científicos se proponen conjuntamente avanzar en la integración del conocimiento alrededor de la idea convergente de la evolución de la vida y del planeta en un proceso unificado. Bruce Clarke (Clarke, Citation2015, Citation2020; Datta, Citation2022) ha revisado y llamado la atención sobre el valor epistemológico para la reunificación de las ciencias que tuvo aquel movimiento de integración que se dio en la década de los 80, auspiciado por CoEvolution Quarterly, Whole Earth Catalogue y Lindisfarne Association.

La cuestión crucial en aquel esfuerzo era la integración entre lo tecnológico y lo vivo: si se consideran equivalentes, tal integración caería bajo el dominio de la tradicional perspectiva mecanicista. De lo contrario, habría que dar paso a una colaboración más abierta y a modelos de ciencia más atentos a la vida para permitir una articulación no reduccionista.

Ambos tipos de acercamiento al problema han venido por tanto a configurarse como asimétricos y conflictivos. Mientras un ser vivo puede adaptarse a una máquina, lo inverso no es cierto: la máquina no puede adaptarse sino rígida y torpemente a un ser vivo. Relacionarse es adaptarse, pero si la interacción no es equilibrada y libre, no es bidireccional, sino que se impone uno de los dos lados, como ocurre en la cibernética de primer orden, se excluye la relación: sólo cabe la subordinación del lado flexible al lado inflexible, del ‘usuario’ al sistema tecnológico. La perspectiva tecnológica interpreta esa adaptabilidad del ser humano a las tecnologías — que siempre ha mostrado, desde su adaptación al carro, al destornillador, a la máquina de escribir o al automóvil — como una aceptación de su papel de observado, como una subordinación, y como prueba de que, puesto que la inclusión de lo vivo a lo mecánico es posible en los términos de lo mecánico, ello demuestra la universalidad y superioridad de lo último. La unilateralidad no se lleva con incomodidad, sino que se considera prueba de que el proceso debe circular exclusivamente hacia su canal. Esta asunción entraña no sólo un riesgo epistemológico de error, sino un peligro biológico y social de imposición y totalitarismo del algoritmo y de la tecnología.

Dicho llanamente, la conexión entre humano y máquina no ha demostrado la pertinencia del paradigma tecnológico, sólo la unilateralidad de éste. Los psicólogos solemos contar un chiste que ofrece otra perspectiva sobre este mismo enfoque: dos ratas en el laboratorio comentan el día, y una le dice a la otra ‘hoy he logrado condicionar al psicólogo: cada vez que aprieto la palanca, me pone de comer’. Puesto que el psicólogo no ve necesario comprender a la rata, tiende a interpretar que si esta se adapta a su modelo es que está construida según ese modelo.

Este es el mismo problema que advertíamos en la escisión entre las cibernéticas de primero y segundo orden; mientras la segunda puede comprender e interactuar con la primera sin limitarse a ella, la primera no puede aceptar ni comprender a la segunda. Von Foerster, recordando la divergencia en los coloquios Macy, lo expresaba así:

Yo pensaba que la cibernética estaba intentando situar el foco sobre un punto crucial en la teoría lógica, un punto que tradicionalmente la lógica ha evitado; uno que [Bertrand] Russell intentó eliminar al introducir la teoría de los tipos. Pensé que la teoría de los tipos era una excusa lamentable para alguien que no quiere tomar la responsabilidad de decir “estoy diciendo esto”, porque se supone que no tienes que decir “yo” en la teoría de los tipos. Al trabajar en estos prefacios [a la nueva edición de las conferencias Macy] tuve la sensación de que una parte de la fuerza intrínseca de los argumentos de Wiener estaba algo diluida. Y mi corazonada es que se debió quizá a su percepción, por esta dilución de la idea de cibernética, de que la inteligencia artificial se estaba separando de una cibernética que se había convertido en nada más que una teoría del control aplicada a los organismos vivos. La cibernética para mí es el punto en el que puedes superar la teoría de tipos de Russell, tomando un enfoque apropiado de las ideas de paradoja, autorreferencia, etc., algo que transfiere toda la noción de ontología (cómo son las cosas) a una ontogénesis: cómo llegan las cosas a ser. Es la dinámica de la cibernética lo que supera la paradoja. Ciertamente, parece que los investigadores clásicos de la inteligencia artificial tienden a abstenerse de meterse en este tipo de cuestiones paradójicas. Por supuesto, hubo otras fuerzas disyuntivas que empujaron estos dos estilos en direcciones opuestas. Una de las que percibo puede haber sido las estrategias de financiación predominantes … A partir de ese momento, prácticamente no había ningún dinero disponible para ningún otro estudio que no fuera de corte IA. (von Foerster, en Franchi et al., Citation1995, p. 8, cursivas nuestras)Footnote1

Obsérvese que von Foerster, al aludir aquí a la paradoja y al vincular ésta con la ontogénesis y con el desarrollo, está desvelando un déficit que, en lugar de expresarse como tal, se postula como estructura y como norma por parte de la lógica de tipos y de la cibernética de primer orden. Esto es, la incapacidad para acceder al pensamiento evolutivo y a la dimensión psíquica intencional se transforma en un mecanismo de jerarquía y poder.

La teoría de los tipos postula una lógica en detrimento de la libertad, pues exige la restricción de los argumentos y predicados a los términos permitidos. Es un pacto formal que viene a equivaler, llevado a sus extremos, a un nuevo dogma o nueva fe, que postula que no hay intenciones ni agentes. Pero en la práctica de la ciencia ese supuesto acaba siendo contradictorio. Mientras los proyectos y teorías científicos renuncian a toda prioridad o intencionalidad, toda convocatoria de financiación científica se hace específicamente desde una intencionalidad, tiene metas y prioridades. ¿por qué se supone en cambio que el proceso investigador y sus modelos explicativos no deben tenerlas? Si el investigador-a es o debe ser objetivo-a, ¿por qué acepta que los programas y convocatorias de financiación investigadora no lo sean y definan objetivos sociales y humanos? Es una contradicción interna del sistema de ciencia y tecnología con su propio código, y se ha convertido en un pacto implícito del que no se debe hablar. Todos declaran la fe en la no intencionalidad al tiempo que saben que la hay y aceptan la que hay. El formalismo del lenguaje objetivo (no decir ‘yo afirmo’ o ‘yo opino’ como señala von Foerster) es esencial para mantener la contradicción detrás de la cortina.

De modo que al vetar la intencionalidad en ciencia lo que se está postulando realmente es que esa intencionalidad se reserva a quien establece la norma. Se ha aceptado la exclusividad de la intencionalidad, pero solo para los verdaderos administradores del sistema de ciencia y tecnología, que son quienes finalmente administran los resultados de una ciencia de este modo domesticada.

La cibernética de segundo orden viene así a exigir un ejercicio lógico de realismo sobre la cibernética y sobre la ciencia mismas, literalmente una cibernética de la cibernética. Pues en realidad vetar la intencionalidad y la paradoja equivale a excluir a cualquier otro observante. Al dejar pasar por la ventana la intencionalidad a la que se impide pasar por la puerta, la cibernética de primer grado demuestra con su acción la validez de la cibernética de segundo grado que niega con sus palabras.

Gaia o el feliz enlace de la ciencia de la materia inerte y la ciencia de la materia viva

En estos análisis hemos visto que las nuevas escisiones que en ciencia inauguran la segunda mitad del siglo pasado adquieren un calado multinivel: teórico, epistemológico, metodológico y ético.

Como era de prever y ya hemos señalado, la escisión cibernética desemboca a finales del siglo anterior en dos orientaciones divergentes: la del progreso tecnológico y la del desarrollo de los seres vivos.

Lo que no se podía prever, como a menudo ocurre en ciencia, era el advenimiento de una nueva concepción que permitiría reintegrar parcelas segregadas en la ciencia de la Tierra, y que vino originada por la exploración de otros mundos. Cuando la NASA emprende la investigación espacial, se interesa por el espectrógrafo de James Lovelock, que podría medir la presencia o ausencia de atmósfera en los planetas. Para Lovelock la atmósfera era el mejor indicador del proceso de deterioro o de organización planetaria, y había planteado por tanto que el factor que acompañaría la vida en cualquier planeta sería la existencia de una atmósfera.

Desde comienzos del siglo XX, el físico y bio-geo-químico ruso Vernadsky (Citation1944, Citation1945) había sostenido la idea de que la vida no cabe en las premisas que definen la entropía, lo que concuerda con la idea de Schrödinger (Citation1944) de que sólo la vida hace que la entropía decrezca (entropía negativa). Teniendo eso en cuenta, Lovelock suponía que la atmósfera no se llegaría a formar a falta de vida, esto es, si sólo interviniera la ley de la entropía. La primera exploración de Marte realizada por la NASA confirmó la hipótesis de Lovelock: no hay atmósfera, no hay vida.

A partir de ahí, Lovelock vincula la evolución, geoformación, física y química de los planetas con la evolución de la vida, y asume que el desarrollo de organismos y especies no es independiente de la evolución de su medio material ni la evolución de éste de la de aquellos. Surge así la primera idea de una dinámica planetaria conjunta a la que Lovelock, aunque había considerado otros nombres como Geofisiología, que traducía la fusión de biología y geología, propone finamente denominar Gaia, nombre que le sugiere para su idea su amigo el literato William Golding (Lovelock, Citation1979, Citation1988). Tal como se había configurado la idea, Lovelock comprende que necesita colaborar en ella con Lynn Margulis (Margulis, Citation1998) por su conocimiento de la vida primigenia y sus teorías sobre la interrelación de los seres vivos. Margulis encuentra muy generativa la idea de una unidad evolutiva común en la Tierra, y cree que propiciará una reintegración disciplinar del proceso evolutivo.

El proyecto de Gaia devino en una de las innovaciones paradigmáticas que ha tenido más impacto en nuestra comprensión de la evolución del planeta. Los datos recogidos por Margulis confirmaron la hipótesis de la formación de la atmósfera terrestre y encontraron al responsable: los microorganismos de vida inicial cuyo metabolismo se enlaza con el metabolismo del planeta y los océanos. Por sí sola la materia inerte de la Tierra no podría haber estabilizado la temperatura del planeta, ni su química haber constituido un medio vivible para el sistema de la vida. Y viceversa. De modo que la idea central de Gaia es que en la medida en que es el resultado surgido del desarrollo interdependiente de los entornos y de los organismos, configura un sistema único, con una capacidad regulatoria general: un auténtico sistema respiratorio de la vida y del propio planeta.

Podría considerarse que toda la materia viva de la Tierra, desde las ballenas hasta los virus y desde los robles hasta las algas, constituye una única entidad viva, capaz de manipular la atmósfera terrestre para adaptarla a sus necesidades generales y dotada de facultades y poderes muy superiores a los de sus partes constituyentes. (Lovelock, Citation1979, p. 9)

Si ese proceso de interconexión de entornos y organismos no hubiera conseguido establecerse y crecer hasta un nivel crítico, la Tierra sería como tantos otros planetas, un planeta inerte. Era una demostración inversa de que la materia inerte, sin vida, es impotente para alcanzar cosas singulares como las que ha alcanzado el planeta Tierra. La idea de Gaia que a Lovelock le llega como intuición desde la ingeniería de la física y la química, encuentra en la simbiogénesis de Margulis el soporte biológico necesario. Abordar conjuntamente la evolución de la vida y la evolución físico-química del planeta y su atmósfera permite comprender que, sin una vinculación y coordinación de ambos procesos, ninguno de ellos habría alcanzado el nivel actual. De modo que ambas vías convergen para sostener teórica y empíricamente una articulación evolutiva entre materia inerte y materia viva. La materia inerte y la materia viva, sostienen Margulis y Lovelock, comienzan a articular su devenir conjuntamente en el planeta Tierra cuando la masa de organismos vivos alcanza un determinado nivel en el sistema (Margulis, Citation1998). Hace 2.200 millones de años, el gran evento oxidativo (The Great Oxidation Event) provocó que la atmósfera subiera de apenas unas trazas de oxígeno al actual nivel del 20–21%, convirtiéndose la atmósfera en una extensión de la biosfera (Clarke, Citation2020). Se resuelve así la milenaria separación entre teorías aplicables a la materia inerte pero no a la vida y viceversa, abriéndose una vía de confluencia en las ciencias, aún hoy muy insuficientemente transitada.

La concurrencia que se dio en la década de los 80 entre miembros del movimiento fundacional de la neocibernética o cibernética de segundo grado, y la nueva comprensión unificada de la evolución de la vida y de la Tierra que acabamos de recordar, recoge de algún modo ese movimiento interdisciplinar renovador (Clarke, Citation2015, Citation2020). No parece casual. Que el concepto de autopoiesis avanzado por Maturana y Varela estuviera presente en ambos movimientos indica que la vida forma parte central del nuevo pensamiento que surgió entonces, vinculando ciencias que habían marchado en paralelo y que parecían ahora capaces de unificar tecnología y vida (Margulis & Sagan, Citation2000; D. Sagan & Margulis, Citation1987).

Como mostraba Lynn Margulis al adoptar el concepto de autopoiesis (Margulis, Citation1998; Margulis & Sagan, Citation2002), ese proceso autocreador de los organismos vivos les conduce a realizar actividades y pautarlas como funciones y órganos que se integran entre sí (simbiogénesis) para expandir la capacidad y complejidad de sus organismos y actividades. Es una alternativa al modelo analítico tecnológico y puramente competitivo entre organismos separados: la vida avanza integrando y fusionándose, no disgregando; avanza haciendo y contactándose, y no representando ni fragmentando.

Mientras el epistema tecnológico trata de plantear el proceso de integración desde la materia inerte y la máquina, el proceso que de hecho se ha dado en la historia de la Tierra es el inverso. Ha sido la vida la que ha logrado articular el devenir del sistema planetario y sus entornos, en íntima y profunda articulación con el biosistema global. De modo que, cuando se plantea el problema más concreto de la integración entre el organismo humano y la tecnología, hay una muy sólida base para buscar una vía de integración guiada por la vida.

Gaia se divide. Bio-lógica y tecno-lógica

La deriva esperable de la aplicación del epistema mecánico es reconfigurar lo humano como tecnológico: el transhumanismo, que contempla a los humanos como máquinas deficientes que se deben aumentar y perfeccionar por vía tecnológica.

En una extrapolación al futuro ese camino transcurrirá primero por el transhumanismo pero culminaría finalmente en el maquinismo absoluto. Pues al final, desde la coherencia de tal sistema, los híbridos y ciborgs acabarían también constituyendo una carga para lo tecnológico puro. De ese modo, tras haber hecho de partera y haber traído las máquinas superinteligentes a la existencia en la Tierra, los simples humanos quedarían relegados a un papel secundario o innecesario, y eventualmente desaparecerían, como profetiza James Lovelock en su última obra, Novacene (Lovelock, Citation2020).

Es de señalar que, en el momento en que escribe esta obra, el pensamiento de Lovelock ha abandonado ya la vinculación con la evolución de la vida que caracterizó la teoría de Gaia mientras trabajaba con Margulis (Lovelock & Margulis, Citation1974). Como sugiere Bruce Clarke a propósito del calentamiento global, para el Lovelock tardío de Novaceno el papel de Gaia ha quedado reducido al de ‘acondicionador de aire del planeta’ (Clarke, Citation2021; Datta, Citation2022). Desde esa lógica, Lovelock razona que una vez que las máquinas alcancen a operar con el calentamiento, ni la vida ni Gaia serían ya necesarias. El propio transhumanismo constituiría así sólo un tránsito a un reino tecnológico absoluto y permanente de sólo máquinas puras: el Tecnoceno.

Es un giro a la idea del homo faber que se refabrica así mismo como homo deus, como super-transhumano transmutado en supermáquina y dotado así de existencia y poderes ilimitados: ‘[la humanidad tendrá entonces] poderes divinos de creación y destrucción, y actualizará al Homo sapiens en Homo deus’ (Harari, Citation2017, Chapter 1, posición 835, p. 53).

Ante esta visión distópica es necesario revisar y valorar los posibles modelos que en psicología hubieran avanzado sus proyecciones al futuro, y juzgar si hay alternativas al modelo transhumanista (la mejora, fusión o sustitución tecnológica de lo humano) que parece estar imponiéndose por incomparecencia de rivales. Y señalamos que, coincidiendo con el debilitamiento de la perspectiva evolutiva en la psicología general, nuestra disciplina muestra una llamativa carencia de modelos de futuro.

No total, sin embargo. Baste sugerir que, para nosotros, el germen para desarrollar la alternativa estaría ya en la psicología de cumbres vygotskiana (del Río & Álvarez, Citation2021) y, como señalan Vassilieva y Zavershneva (Citation2020), la psicología de Vygotski, especialmente en la etapa final que va de 1930 a 1934, es fundamentalmente una psicología proyectada al futuro. En esta etapa, Vygotski esboza un modelo de psicología que denomina acmeísta — o psicología de cumbres, en emulación del movimiento de los poetas acmeístas coetáneos de Vygotski, como Gumilov, Mandelshtam o Ajmatova. Un modelo que plantea la construcción de la conciencia como un proyecto continuado de desarrollo psíquico integrado hacia la libertad; un modelo inequívocamente bio-psíquico y evolutivo que considera que lo humano es un proceso de desarrollo continuo. Es en suma una perspectiva que contempla el evolucionismo humano como un proceso reiniciado en cada nueva cultura y en cada nueva persona, liberando el asunto de lo humano de su anterior reclusión en los modelos de la herenciaFootnote2.

El homo faber aprende a fabricarse a sí mismo. De la mediación instrumental a la escisión tecnológica

Para comprender el desarrollo tecnológico es necesario retrotraernos a los primeros pasos de la histórico-génesis, desde la perspectiva que asume la teoría histórico-cultural. El mecanicismo está con los humanos desde el momento en que cogimos una piedra o un palo y los empleamos como útiles, desde que fabricamos el primer instrumento. Volver a los orígenes de la mediación instrumental puede ayudar a analizar las raíces del problema tecnológico.

En efecto, hay razones para pensar que la implantación de la tecnología no ha sido casual, y que sus raíces vienen desde los primeros pasos del homo faber, desde el primer instrumento que empleó para actuar de modo extendido sobre su medio.

Desde esos primeros momentos se da una diferencia esencial entre las tecnologías o instrumentos desarrollados por nuestros ancestros para actuar sobre la naturaleza exterior, como el hacha o el bastón, y las que desarrollan para actuar sobre su propia psique, las que en su momento denominó Vygotski herramientas o instrumentos psicológicos: marcas en piedra, madera o barro, los enseres y los enterramientos, los huesos para echar a suertes o adivinar el futuro; o en la actualidad, una anotación en la agenda, un crucifijo en la pared, una foto en el aparador.

En su origen, la acción mediada eficiente exporta la acción a un objeto, que deviene instrumento, como por ejemplo un palo, o un mazo para golpear algo. Se tardará mucho en dar el salto a la mecánica pero, conceptualmente, del instrumento a la máquina hay sólo un paso. Pues si se consigue trasladar la acción humana a otro agente (el viento que mueve las aspas de un molino, el agua de un cauce que empuja una noria, el animal doméstico que mueve el arado) y secuenciar después esa acción, se obtiene una máquina, un alter ego no vivo, en quien delegar el uso o puesta en movimiento de los instrumentos. Es el caso, por ejemplo, de un batán o de la rueda de un molino de agua, que en la edad moderna servía para mover uno o varios mazos que golpeaban los tejidos o las pieles, o para mover una piedra sobre otra y moler el grano. Podemos capturar el vapor y, como la máquina de Watt, producir una acción mecánica repetitiva, como achicar agua de la mina o de un barco. Podemos en suma construir máquinas no solo para que hagan nuestro trabajo físico, sino el psíquico: calculadoras, relés que cuando ocurra x hagan y. Podemos así sustituir algunas de nuestras acciones o parte de ellas si nos suponen demasiado esfuerzo o demasiado tiempo. O si alguna dolencia o carencia nos lo impide, sirviéndonos entonces de prótesis. La capacidad de acción de la operación instrumental externa sobre el medio puede llegar a ser enorme, y a exceder en mucho las capacidades de acción directa del organismo.

Pero la capacidad ilimitada de acción instrumental sobre el exterior nos puede llevar a pensar también en el propio organismo como un conjunto de mecanismos. Igualmente es lógico pensar que el científico o el ingeniero se considere capaz de mejorar el diseño actual de ese conjunto de mecanismos. El homo faber alienta así el proyecto de fabricarse y mejorarse a sí mismo.

La ilusión mecanicista se ha extendido actualmente a las concepciones y métodos de las diversas ciencias, de modo que todos los procesos de los organismos se están tratando de comprender como procesos tecnológicos y computacionales.

Los recientes éxitos de las ingenierías científicas pueden alentar la tentación de interrumpir definitivamente la indagación sobre los procesos del organismo y de la psique humanos, y de concentrar esfuerzos, ideas y presupuestos en los productivos procesos de la acción tecnológica.

Pero ¿son realmente traspasables y congruentes estos principios de la máquina con los procesos, funciones, y órganos que caracterizan a los humanos? Deslumbrados por las ventajas materiales y de progreso económico y social que tendría ese supuesto de ser cierto, investigadores y poderes sociales se han inclinado a aceptar esa equiparabilidad sin cuestionarla. Aunque quizá convendría considerar el asunto con más paciencia y prudencia, pues tratar lo vivo como inerte para aprovechar aparentes ventajas prácticas, podría tener consecuencias indeseadas para la evolución de la vida y del propio hecho humano. Lyotard (Citation1988) se anticipó al debate — hoy en plena ebullición — de que fuera posible una inteligencia sin cuerpo, sin vida; de que, como propone el transhumanismo pudiera alcanzarse la inmortalidad mediante ‘mejora humana’ (human enhancement), añadiendo o insertando tecnología en lo orgánico hasta alcanzar su sustitución total por lo tecnológico inorgánico. Las grandes visiones o narrativas del futuro o de lo humano se presentan hoy como dos grandes epistemas enfrentados: el epistema de la vida y la evolución por un lado y el epistema tecnológico por otro.

Entender el proceso de la mediación tecnológica de la mente es efectivamente clave para comprender el problema de la tecnología, a cuyo embrujo la civilización actual parece haberse rendido, y que los principales grupos de influencia económica y política a nivel mundial están tratando de imponer como modelo para la definitiva transformación transhumana — presumiblemente con una finalidad no especialmente altruista (ver por ejemplo Broom, Citation2021; Bruce-Lockhart & Russell, Citation2022; Farahany & Thompson, Citation2023; Harari, Citation2020; Lee et al., Citation2020; Liu, Citation2020; Webb & Hessel, Citation2022; World Economic Forum & Frontiers Media, 2023).

La continuidad humano-máquina. Desarrollo y neurogénesis

[…] una vez que la tecnología nos permita rediseñar las mentes humanas, el Homo sapiens desaparecerá, la historia humana llegará a su fin y comenzará un tipo de proceso completamente nuevo[. La humanidad tendrá entonces] poderes divinos de creación y destrucción, y convertirá al Homo sapiens en Homo deus. […] La conversión de los humanos en dioses puede seguir cualquiera de estos tres caminos: la ingeniería biológica, la ingeniería cíborg y la ingeniería de seres no orgánicos. (Harari, Citation2017, Capítulo 1)

La visión tecnológica de la ciencia ha asumido de manera congruente con el pensamiento mecánico, pero incongruente con el biológico, que las capacidades y funciones pueden adosarse o insertarse en lo humano como quien se hace cargo de una excavadora, un brazo robótico o introduce una nueva tarjeta de memoria en el ordenador. De ahí los términos de upgrading, enhancement, o augmented functions (actualización, mejora, o funciones aumentadas) que se han generalizado en la nueva cultura tecnológica. El pensamiento tecnológico supone una continuidad de naturaleza entre lo mecánico y lo orgánico vivo que simplificaría teórica y metodológicamente la incorporación de estas nuevas extensiones como meros aditamentos o añadidos. Los viejos instrumentos psicológicos definidos por Vygotski reaparecen así como piezas de recambio (spare parts) del proceso mecánico. El concepto de prótesis sería el más cercano a esta concepción.

Las prótesis, sean externas o internas, sean aditamentos exteriores o insertos biotecnológicos, son añadidos operacionales mecánicos, pero la construcción de un proceso central que pueda articular los instrumentos neurológicamente en el sistema psíquico implica necesariamente un proceso de desarrollo, pues toda auténtica integración es desarrollo. Nuestro sistema biológico y neurológico no tienen puertos, o interfaces con lo tecnológico para insertar cualquier tipo de añadido mecánico que podamos concebir.

Es necesario que el sistema orgánico entero y el neurológico realicen un proceso de integración del instrumento (que sería literalmente desarrollo) para incorporar estas extensiones que, en otro lugar, y desde la teoría vygotskiana, definimos como trans-orgánicas (del Río & Álvarez, Citation2016). En su continuo proceso de neurogénesis, nuestro cerebro desarrolla, por su propia dinámica — autónomamente — nuevos circuitos centrales de conexión de diversos subprocesos para poder incorporar esas extensiones e instrumentos. De ese modo, al subordinarse funcionalmente a la actividad integral, las nuevas acciones instrumentales son plenamente apropiadas, en un genuino proceso de desarrollo del sistema psicológico, ya se trate de un nuevo esquema sensomotor que soporta el giro preciso de muñeca que requiere un destornillador, o de las nuevas praxias que se necesitan para tocar el piano o el violín.

El supuesto de conseguir progreso funcional en un ser vivo sin integración ni desarrollo es la ilusión que anima al epistema tecnológico. Antes de que Vygotski pasara de su primer modelo de adquisición e interiorización de las funciones psicológicas superiores a un modelo más integrado, asumía un supuesto parecido: que las funciones que se adquieren externamente mediadas por instrumentos y por los otros sociales se transfieren simplemente al interior como funciones mentales. El término empleado entonces era interiorización y expresaba ese proceso como un mero traslado (del Río & Álvarez, Citation2013). En su autocrítica teórica y reformulación neuropsicológica posterior, Vygotski (Citation1990d) dio entrada a los dos procesos centrales de integración y desarrollo. Integración, al suponer que las funciones no se adquieren una a una como unidades aisladas, sino que implican una conexión interfuncional en red con otras funciones (sistemas psicológicos). Desarrollo al comprender que el medio por el que vamos trasformando y construyendo nuestro sistema neuropsicológico exige un complejo proceso de cambios evolutivos y mejoras del conjunto.

La llamada interiorización del lenguaje no es pues un mero traslado, sino que implica la construcción de nuevos circuitos internos que son siempre rutas personales de aprendizaje, que reconstruyen el lenguaje interior, y que están conectadas neurológicamente con multitud de nuevas rutas y de áreas cerebrales, de vivencias y funciones singulares individualmente distintivas. Por referirlo a un ejemplo más sencillo, cuando alguien aprende a usar el destornillador, al tiempo que cambian las nuevas redes neuronales que se ocupan de ello, lo hace la configuración y las articulaciones de la muñeca (ya que el giro no es una praxia natural), de modo que todo el cuerpo y no solo la muñeca crea un sistema integrado de movimiento, además de las redes neuronales que lo soportan. Todo un nuevo sistema ‘aprende’ a usar el destornillador. Algo similar ocurre, en un grado de complejidad mayor, con el desarrollo de las funciones psicológicas superiores, por ejemplo y como la más notable de estas funciones, el lenguaje. No se podría adquirir el lenguaje sin más, ya interiorizado, con un chip de habla, obviando esas innumerables conexiones integradoras que lo soportan. El proyecto transhumanista asume con cierta simplicidad teórica la incorporación al cerebro de las supuestas funciones extendidas (augmented functions), considerándolas mera adición o añadido, tan simples de instalar como enchufar un altavoz a un lector de sonido, y como si las diversas ingenierías adosadas, bio, neuro, electro, físico o químico moleculares en su configuración macro, micro o nano — todas elaboradas desde la lógica tecnológica — pudieran incorporarse en continuidad a la lógica constructiva orgánica.

Hay razones para pensar, como sostienen algunos biólogos, que los procesos orgánicos se integran, creando entre ellos una resonancia y armonía que es en cada caso original, evolutiva y desarrollante, y que por ello implica un ajuste no predefinido. Se ajustan a lo que el biólogo Denis Noble ha denominado la música de la vida (Noble, Citation2008), o lo que milenios atrás Lao-Tsé definía como armonía (Lao-Tsé, Citation2017).

¿Funciones desarrolladas o funciones aumentadas?

El papel que Vygotski atribuía a la mediación era el de posibilitar que los procesos psíquicos naturales se hicieran operables desde la conciencia, y con ello se hicieran voluntarios e incrementaran la propia libertad. Esta sería su lógica evolutiva. Como hemos dicho, lo más relevante del enfoque sistémico vygotskiano es que la reorganización como sistema permite que la función se vuelva más consciente y por tanto propiamente voluntaria.

Esta perspectiva marca una distancia con el supuesto que predomina en los actuales desarrollos de interfaces máquina-humano. La incorporación como añadidos de las extensiones y capacidades, sin involucrar los procesos centrales de integración y desarrollo — y con ello de incremento de la autonomía y la libertad — vienen a dejar la adición de funciones añadidas bajo la figura de la incorporación mecánica sobre el sujeto (pasivo) por parte de un agente mecánico (activo) que de este modo actúa discrecionalmente sobre el sujeto. No es propia o necesariamente piratería (hacking), pero está muy cerca. El inserto no sería una prótesis bajo el control del sujeto sino una función en cierto modo autónoma que este usa. Y la autonomía del inserto y de la supuesta función serían siempre un asunto pendiente.

El supuesto de continuidad tecnológica y de inserción de funciones enteras descansa en la idea de que los humanos son epistemológicamente asimilables a mecanismos y por tanto carecen de libertad. Asumir tal continuidad es sin embargo metodológicamente muy útil ya que, al no reconocer en el sujeto ‘aumentado’ ninguna autonomía, se levantan las restricciones morales y legales a lo que se presenta meramente como una innovación tecnológica más.

Cabe repetir lo que decíamos en relación con la escisión cibernética: la perspectiva tecnológica interpreta la adaptabilidad del ser vivo a las tecnologías como subordinación, y ésta como una demostración de la carencia estructural de la libertad en los humanos. Conjuntamente ambas reducciones allanan los obstáculos sociales y morales y dejan vía libre a la homologación directa de lo vivo a lo mecánico.

Pero cuando el sistema vivo se adapta a un palo, a un destornillador o a una máquina, sigue al mando y para nada demuestra que el palo, el destornillador o el automóvil sean superiores: bajo la interfaz sigue fluyendo la corriente de la vida y la flexibilidad evolutiva. Aunque el palo influya sobre la capacidad de acción del organismo, no la controla. En realidad, la conexión entre humano y máquina no demuestra la pertinencia del paradigma tecnológico, sólo la unilateralidad de éste. Si se lleva más lejos y se logra, por ejemplo, insertar imágenes ‘falsas’ en el cerebro para que éste las tome como reales, y capturar desde ahí las intenciones y respuestas y las sinapsis de movimiento, ese pirateo no demostrará nada más que eso mismo: que se ha engañado y capturado un ser vivo falseando sus circuitos, que se ha logrado desintegrarlo. No se habrá logrado demostrar que antes no era libre, sino que ahora no lo es, que se le ha cautivado, y que se han secuestrado sus procesos de integración.

La transparencia de las mediaciones psicológicas y el algoritmo invisible

De acuerdo con el concepto inicial de mediación de Vygotski, el vértice que une el estímulo y la respuesta en su triángulo de la mediación indica que un objeto o una marca, introducido como respuesta a un estímulo en un momento y espacio inicial, se convierte, en otro momento y espacio, en estímulo que dirige la atención para llevar a otra acción o respuesta. Es decir, el mediador transporta reacciones psíquicas de una situación presente inicial a otra aún no presente: media, re-presenta, o traslada estímulos y respuestas. Modifica con ello la situación fenoménica. Generalizando al lenguaje informático actual, podríamos decir que el instrumento psicológico es una operación que vincula entidades antes separadas en el espacio o en el tiempo, propiamente un algoritmo. El aprendizaje mediante la mayoría de las psicotecnias e instrumentos psíquicos se logra por contingencia, por condicionamiento y contigüidad, vinculado a acciones mediadas y compartidas en situaciones repetitivas.

Pero como ya hemos mencionado, una vez interiorizadas, las mediaciones se vuelven invisibles. Probablemente buena parte de los problemas del dualismo, del animismo y de las escisiones que se han seguido en la historia del pensamiento humano han sido propiciados por la invisibilidad de las mediaciones culturales.

Y es que esa invisibilidad de los procedimientos es lo que confiere a las tecnologías y a la inteligencia artificial su halo de magia. Un destornillador, una grúa o un robot, e incluso un chip que el sujeto ve antes de que le sea insertado, están ahí fuera, como objetos tangibles, pero no lo están ya la tabla de multiplicar, la plegaria o el diálogo discursivo, que han quedado interiorizados. Las mediaciones psíquicas pasan a hacerse transparentes y envolventes, como lo es el agua para el pez que vive inmerso en ella.

No es difícil entender por qué. Para nosotros todas las cosas, sean naturales o artificiales, son objetos y todos los instrumentos son instrumentos, sean eficientes (transforman la materia externa), o psicológicos (transforman nuestra mente). A efectos perceptivos, incluso cuando las psicotecnias siguen fuera, las vemos como cosas, y no como psicotecnias, no por su función psicológica. Su carácter de affordance (de etiqueta psíquica para nuestra percepción, o mango psíquico para nuestra acción) sólo serían perceptibles a la ‘visión de rayos x’ de un eventual psicólogo histórico-cultural. El manto invisible acaba de cerrarse cuando las mediaciones se automatizan y pasan a situarse en el terreno de lo inconsciente. Sería conveniente revisar los supuestos de que todos los órganos y sentidos están dentro del cuerpo y considerar que la especie humana ha extendido sus órganos trans-orgánicamente (del Río & Álvarez, Citation2016), así como el supuesto de que todo lo mental está en el interior, y tener en cuenta que las funciones psíquicas están extendidas en el medio (del Río, Citation2002).

En sí, estas vinculaciones mediadas insertas en la cultura apelan al sujeto de modo no consciente, y son disparadas desde el medio sin que el sujeto tenga ni conciencia ni control de ellas, estableciendo asociaciones inconscientes. Hemos reconstruido el medio para que sea sinomórfico con nuestra mente, para que nuestro nicho ecológico sea más consistente: podríamos afirmar que las mediaciones psicotécnicas facilitan a las comunidades humanas apropiarse en cierto grado de la affordance y de su control. Por así decirlo, la colectividad ha aprendido a tocar colectivamente la campana de Pavlov y ello hace posible a su vez que cada individuo de la colectividad consiga tocarla para sí mismo. Individualizar y concienciar ese control — en sus inicios social y colectivo — requiere que cada persona domine por sí misma las psicotecnias desde las que se operan sus funciones psíquicas.

En tanto el desarrollo psíquico se formula finalmente como un proceso de dominio psicotécnico, que va desde el uso compartido pero inconsciente de las psicotecnias hasta la apropiación personal consciente, los instrumentos psicológicos están también dentro de lo tecnológico, aunque de una manera distinta a los supuestos actuales. Es este segundo paso de hacer consciente lo técnico lo que marca la diferencia. Cuando estos procesos de aprendizaje informal y situado se hacen explícitamente intelectuales, como por ejemplo en la educación, pueden analizarse con más detalle. Por ejemplo, en el caso de una buena didáctica del número y de la suma, el escolar va relacionando diversos encadenamientos de instrumentos psicológicos: el objeto que lleva a una pieza Montessori o una regleta Cuisenaire, una ficha de madera o una raya en el cuaderno y de ahí a un signo, por ejemplo el grafema 3, y de ahí a la cifra o categoría número 3. En este proceso, la mayoría de los eslabones se automatizan por uso repetido, y acaba siendo visible solo el objeto y el número final; los escalones intermedios se subsumen como pasos superados en el camino, y pasan a ser olvidados, invisibles, quedan abreviados y encerrados en la caja negra del automatismo, de la que solo vemos la caja misma, o incluso sólo la etiqueta o nombre que lleva. En la cultura actual, la cantidad de cajas negras, de pasos intermedios automatizados e invisibilizados es enorme. Y contienen un mundo en general psíquicamente invisible, secundariamente inconsciente, incluso para los psicólogos.

Con el concepto de algoritmo invisible (del Río, Citation1987) quisimos expresar esta ocultación y abreviación que se basa en la tendencia y capacidad para discretizar los escalones mediados, y luego para abreviarlos o subsumirlos en uno de los escalones, casi siempre el último: nos quedamos con la etiqueta y el ‘mango’ y, al mecanismo interno automatizado y abreviado, le ponemos una carcasa o un caparazón, una epidermis, un embalaje que portan esa etiqueta y ese mango. Cualquiera de los pasos de mediación engloba e insume todo lo anterior y, por tanto, más que objetivarse se objetifica y convierte en un referente quantum. Lo habitual es que sólo queden visibles el primer y el último escalón, pero para que sean posibles la adquisición, integración y dominio de la nueva función se requiere que el aprendiz haya seguido y se haya apropiado de todo el proceso. Solo así la abreviación que se produce al final con la automatización será operatoria y eficiente.

De manera análoga, cuando usamos el procesador de textos, los pasos que en la escritura manual e incluso en la máquina de escribir eran visibles, han pasado al interior de una caja negra, de modo que las nuevas funciones instrumentales se vuelven aún más mágicas de lo que lo fueron inicialmente. Podríamos estar, visto desde fuera, ante un patrón casi equiparable al de la rata que presiona la palanca en la caja de Skinner para recibir comida. Eso tiene un efecto inevitable: aumenta el grado de fragmentación y de invisibilidad de una parte esencial de la realidad. Dada la densidad que en nuestras culturas han alcanzado los instrumentos eficientes y psíquicos, todos estos embalajes y abreviaciones son necesarios. El problema es saber si se producen tras un proceso adecuado de interiorización y automatización de un proceso mediado completo y bien construido, o si se producen en ausencia de tal proceso. En el último caso el niño o el aprendiz asocia etiquetas y dispositivos cerrados (cajas negras) con resultados contingentes que se producen sin comprender su vinculación, de modo que el proceso de aprendizaje se podría asimilar perfectamente a condicionamiento operante.

Si al niño no se le deja vivir y adquirir todo el proceso completo, sino que se le presentan solo las formas abreviadas finales (las cajas negras con su etiqueta), jamás dominará la función y sólo podrá vincular acciones condicionadas o inconexas. Queda condenado a un aprendizaje meramente episódico y nominalista, una caricatura de aprendizaje en que simula saber sin poder comprender. Sus conceptos carecen de argumento interior, de historia evolutiva y de funcionalidad.

La invisibilidad de la mediación ampara por igual tanto una función procedimentalmente sólida y bien construida como una función ‘hueca’, en la que falta el procedimiento aunque epidérmicamente parezca similar a la completa. Da así pie al mentalismo y concede un pedestal de magia a la tecnología, la vuelve sagrada y cuasi divina, sin que se haya llegado realmente a entenderla. Desde este punto de vista, una visión tecnológica trivial de la ciencia puede alentar una vuelta al irracionalismo animista, como si el químico retrocediera a la acción del alquimista.

Algo muy similar a lo que ocurre con la tecnología, plena de cajas negras y de algoritmos invisibles, ocurre con la percepción mágica que el niño tiene de las palabras tal como la describe Vygotski:

N. B. Para el niño, la palabra es una propiedad, una parte de la cosa, integra la estructura de la cosa. Inde: 1) está más estrechamente ligada con la cosa (referencia objetual), es más concreta, la Feldmäßigkeit; 2) pero al mismo tiempo, como parte, como palabra material, sustituye la cosa, se cosifica, conserva el afecto (el Aufforderungscharakter) de la cosa, es un Ersatz, decir = hacer, crea su propia realidad como en el sueño. Es decir, el significado de la palabra en el niño está entre el significado en el sueño y el significado en la percepción generalizada. Inde: ¡el pensamiento mágico del niño proviene de ahí! (Vigotski, Citation2022, p. 741)

Educación conceptista y educación desarrollante

En la lógica de la mediación, el organismo humano introduce instrumentos psicológicos en sus funciones naturales, de modo que, por decirlo así, las tecnologías se naturalizan, se articulan con el organismo de manera integrada y escalonada. Ese sería el orden ideal si las cosas transcurrieran adecuadamente. Sin embargo, no es la lógica de la mediación escalonada la que habitualmente rige los planes educativos o las circunstancias particulares de cada centro, aula o docente.

Efectivamente, en muchos casos, la enseñanza se limita a lo ‘declarativo’ o al resultado final de un algoritmo, como una fórmula o una regla gramatical, ocultando o no desplegando los mediadores que llevan a ese resultado, fórmula o regla. Se olvida que los conceptos abstractos-declarativos que se imparten habitualmente en la escuela originalmente eran operaciones procedimentales mediadas por instrumentos específicos, que toda función psíquica superior ha surgido de una historia cultural o científica y posee por tanto una biografía instrumental bien definida. El principal objetivo de la enseñanza debería recuperar esa historia, no solo conceptual, sino instrumental y procedimentalmente: el concepto de grado o de latitud han ido de la mano de instrumentos que los han hecho accesibles al científico, y que pueden y deben hacérselos accesibles también al niño o al aprendiz (del Río, Citation1987).

Tras la conocida formulación de Vygotski de que toda buena educación precede al desarrollo se encuentra el corazón metodológico de la idea de la educación desarrollante: lo que impulsa el desarrollo no es sino una consecuencia neuropsicológica de la actividad mediada por instrumentos, y es aplicable en todos los campos del conocimiento (Davidov, Citation1988; Solovieva & Quintanar, Citation2021).

Toda una generación de discípulos de Vygotski aplicó estos principios en los diseños curriculares, como es el caso del método seguido por Davidov para la enseñanza del álgebra (Davydov, Citation1990), que deriva claramente de la idea de experimento formativo que proponía Vygotski, o el método de formación por etapas de Galperin (Galperin, Citation1979, Citation1995; Solovieva & Quintanar, Citation2020). Uno de nosotros los aplicó para el desarrollo de los conceptos geométricos y del pensamiento espacial (del Río, Citation1987). Lamentablemente buena parte de la didáctica escolar está aún repleta de conceptos huecos, que devienen verbalmente familiares, pero que en realidad son operacionalmente desconocidos, conexiones arbitrarias que el niño debe memorizar sin entender por qué, y siempre más difíciles e inaccesibles para él que los procedimientos y las actividades mediadas originales.

Aunque estos procesos se han analizado y trabajado más sistemáticamente en el ámbito de la enseñanza y el aprendizaje formal, podemos y debemos considerar desde la misma perspectiva lo que ocurre en el caso de los aprendizajes informales en la cultura cotidiana. La integración de las nuevas tecnologías en la cultura popular se ha producido, como era de prever, sin las guías que la investigación psicológica y pedagógica han podido producir para los aprendizajes formales. Y a este respecto no es en absoluto indiferente que las tecnologías que las familias o los niños incorporen en la vida cotidiana sigan una u otra perspectiva.

En 1986, cuando trabajábamos en un proyecto de diseño de tecnologías, nos tropezamos con el primer Macintosh y quedamos fascinados por las posibilidades educativas que ofrecía. Con nuestros hijos de siete y nueve años comprendimos que disponíamos de un poderoso kit de herramientas culturales e instrumentos psicológicos. Con un tutorial de mecanografiado, aprendieron rápidamente el método ciego de escribir en el teclado — algo que nosotros aún no hemos dominado — y, progresivamente, a dibujar, a hacer música, a editar, y a adquirir, ordenar y archivar información. No se pueden olvidar los juegos, a los que la presencia del Mac dio un impulso creativo y educativo que se notó en toda la industria.

Aquel pequeño y mítico ordenador era en aquel momento una palanca tecnológica poderosa, una tecnología para producir desarrollo. Al proponerse recuperar los códigos, lenguajes y formas tradicionales de la cultura humanística (oír, leer, escribir, dibujar) y al pasar de la secuencia lineal al espacio gráfico, Steve Jobs se distanció con el Mac de la trayectoria del ordenador convencional. Quizá no tan anecdóticamente la neuróloga Jill Taylor (Citation2021) compara las trayectorias de Blackberry o Windows, por un lado, y de Mac por otro, con las trayectorias del HI y el HD.

Si mencionamos esta anécdota sobre el Mac es para recordar algo que Jobs — lo anticipara teóricamente o meramente lo intuyera — recogió implícitamente en el Mac y en la estela cultural que dejó: que el desarrollo y el aprendizaje son intransmisibles y deben serlo, que la función más noble de la tecnología es provocar y posibilitar desarrollo y no sustituirlo. Tras la filosofía del transhumanismo ciborg se esconde la ilusión, mágica y engañosa, de lograr desarrollo sin actividad y sin esfuerzo, de comprar la vida sin vivirla, de llegar a metas sin camino; nos atreveríamos a decir incluso de adquirir felicidad sin merecerla.

En su entusiasmo productivo, ciertamente admirable, la corriente del epistema tecnológico aún no se ha detenido lo necesario para comprender la mente viva, y sin ese paso difícilmente puede comprender adecuadamente la tecnología misma. Sus inferencias y proyecciones hacia el futuro no dejan de suscitar un cierto estupor:

Aquellos que se hayan convertido en ciborgs estarán un paso por delante de los humanos. Y del mismo modo que los humanos siempre se han valorado como superiores a otras formas de vida, es probable que los ciborgs miren por encima del hombro a los humanos que aún tienen que ‘evolucionar’ (Warwick, Citation2004, p. 4).

Esta asunción de continuidad entre organismo y máquina es probablemente el escollo, no sólo técnico, sino teórico, en todo el epistema tecnológico transhumano. Suponer que la integración será siempre simple y fluida y que no está implicado el desarrollo sino sólo la inserción de tecnología, implica que el difuso paradigma del progreso que ha presidido la marcha de las sociedades y de la ciencia en los dos últimos siglos continuará sin interrupción. Desde ese epistema — con frecuencia más una fe que un paradigma — se aspira a sustituir el desarrollo biológico y psicológico por la adquisición de nuevos aditamentos tecnológicos que otorgarán superioridad a quienes los posean.

Quién sirve a quién. La relación tecnología-humano y la reducción al control

Como ya se ha dicho, para comprender la tecnología es imprescindible considerar el papel psico-funcional que desempeña cualquier instrumento o dispositivo tecnológico: lo orgánico es lo que da funcionalidad a lo técnico. El modelo que aporta la teoría de la mediación vygotskiana se basa en que el ser humano es un organismo activo que incorpora a sus funciones los instrumentos extra-orgánicos y situados en el entorno cultural, lo cual implica un proceso específico de integración funcional y de desarrollo bioneurológico (del Río & Álvarez, Citation2016).

Desde el origen de la ingeniería informacional, el problema básico para convertir cualquier información en algoritmo y volverla computable es fragmentarla en descripciones y operaciones discretas de cálculo (el trabajo de un parser). El objetivo es computar, de manera que es necesario segmentar las relaciones en trozos distintivos de código, secuencias de información que se puedan operacionalizar y se puedan procesar como cálculos aislados. El procedimiento simétrico posterior es vincular los diversos fragmentos a partir de la lógica algorítmica, en la que cualquier vinculación aleatoria es posible. Son supuestos distintos de los de la lógica viva o bio-lógica. Aunque desde luego hay que reconocer que, si se pudiera conseguir que todas las actividades humanas se integraran en ese molde, las posibilidades de gestión y de control serían mucho más centralizables y gestionables.

Ya von Foerster apuntaba desde la cibernética el principal problema de la computación: su ventaja es su inconveniente. Las computadoras, como manipuladoras de símbolos que son, y que han incorporado en su estructura la lógica y el álgebra, están libres de errores de cálculo o de sintaxis, y no pueden producir estructuras formales inconsistentes. No pueden producir sino plausibilidad formal. Ese es su mérito y su gran ventaja. La inteligencia lógica aporta con ello fiabilidad y capacidad combinatoria y probabilística, y tiene una gran capacidad para articular significado, más el sentido, la dirección y la ética habrá que aportarlos por otras vías.

Si nos detenemos a considerarlas, fácilmente llegaremos a la conclusión de que es difícil algoritmizar muchas de las actividades vitales. La pretensión por tanto de reconvertir a la actual inteligencia artificial todas las actividades humanas, entren o no entren bien en el software, no puede dejar de percibirse como una pretensión problemática, como extraer un dispositivo fuera de su ámbito de competencia y generalizarlo a usos que no le son propios. Al hacerlo se ha antepuesto el control y la centralización que puedan desear los poderes que las impulsan sobre los objetivos vitales de los humanos que habrían de usarlas. El cambio social se proyecta desde una relación inversa: cuanto más se adapta lo humano a lo tecnológico, menos humano puede ser. Lo primero crece a costa de lo segundo.

Sacrificar la validez y la libertad para asegurar la fiabilidad y el control equivale a restringir la diversidad de la vida y de la cultura a la capacidad y restricciones que exigen las nuevas herramientas. El epistema evolutivo y el tecnológico se están haciendo ver como enfrentados, excluyendo fórmulas que pudieran desarrollarse para una mejor integración y desarrollo humanos.

El ideal que se persigue hoy en la ciencia y en la industria computacional es alcanzar un ordenador con ilimitada capacidad de cálculo y que no yerre nunca, lo que requiere previsibilidad absoluta y control total. Siendo este un objetivo conveniente y hasta necesario en ciertos momentos del proceso investigador, el mundo orgánico parece haber seguido en cambio otros derroteros: progresa por ensayo y error y construye por simbiosis; el control que ejerce es siempre situado y relativo, de modo que la vida cuenta con el error y hasta parte de él; no avanza mediante la evitación de los errores, sino mediante su corrección. En general recurre a la autonomía y a la libertad como método, y promueve articulaciones e integración desde las acciones libres. Nunca aceptó la lógica de tipos pues siempre está abierta a paradojas y contradicciones.

Esto nos lleva a preguntarnos si la evolución de la vida no ha llegado, en su largo proceso, a una opción más realista y más inteligente que la elegida por la inteligencia artificial. ¿Qué sentido tiene para un ser vivo el hipotético pensamiento abstracto digital perfecto, o las máquinas con capacidad de cálculo infinito, y con error cero? ¿Qué sentido tiene una realidad totalmente previsible, sin contingencias ni errores, si el precio a pagar es que esos cálculos se mueven en una irrealidad virtual, y se impide la posibilidad de desarrollo?

Todo indica que sea la vida y no la tecnología la que ofrece más capacidad evolutiva de mejora y que en ese aspecto — que es el que más afecta a los humanos — el cálculo representacional está condenado a ir siempre detrás de la realidad viva, como Aquiles detrás de la tortuga en la aporía de Zenón. Por rápidos que fueran Aquiles o el superordenador, mientras este realiza su velocísimo procesado cuántico y cuasi infinito y Aquiles vuela sobre sus pies ligeros, el referente real y la pobre tortuga están viviendo sin cesar de dar sus pequeños pasos y produciendo algo diferente.

Langue, parole e inteligencia artificial. De Saussure y Vygotski a los chatbots

La escisión instrumental culmina en el actual dominio conceptual e industrial de la Inteligencia Artificial (IA en adelante). Es un campo excesivamente amplio y su desarrollo es tan rápido que difícilmente podríamos aquí, para cerrar este análisis sobre las escisiones, valorar sus promesas o sus peligros. Nos limitamos a considerar la propuesta planteada desde el epistema tecnológico de que ya está en curso la escisión (decoupling) de la inteligencia y la conciencia, tal como afirma Harari: ‘La inteligencia se está desacoplando [decoupling] de la conciencia’ (Harari, Citation2017, Chapter 11, posición 4807, p. 361).

La propuesta de Harari parece traducir un supuesto generalizado en la IA de que finalmente la realidad obedece a una descripción lógico-matemática y que, si es así, la capacidad de computación define finalmente la inteligencia y el mejor tipo de conciencia que pudiera darse. Tendríamos así que la realidad física misma se adaptaría o respondería a las categorías del código formal del procesamiento lógico computacional. Lo vivo queda de algún modo fuera de la realidad computable, y por tanto de la realidad cognoscible o aceptable al epistema de la IA.

El supuesto teorético o formal concede así un papel estelar al lenguaje entre las funciones psicológicas humanas. Pero es un papel condicionado a que el lenguaje se entienda como lenguaje computable, esto es, como un código definible y objetivable.

Esto sitúa al lenguaje mismo en un territorio conflictivo, en la medida en que ha desempeñado un papel central, tanto en los modelos más formales y asumibles por el paradigma computacional, como en las psicologías más abiertas y emparentadas con los procesos biológicos y con los procesos humanísticos y culturales. El lenguaje es un instrumento poliédrico. Opera referentes en el mundo exterior o en su simulacro interior, pero opera también intenciones y constructos de conciencia que son plenamente del mundo interior.

En el momento más expansivo de la semiótica en los años 70 y 80, había dos posiciones teóricas enfrentadas. Una estipulaba que la disciplina solo podía avanzar circunscribiendo su investigación y descripción de los sistemas semióticos al ámbito de lo observable en los propios signos y procesos comunicativos, excluyendo de su examen a los sujetos y los procesos internos de éstos. Umberto Eco afirmaba entonces que los sujetos psicológicos sólo son reconocibles y objeto de la semiótica en cuanto a sus producciones semióticas o lingüísticas exentas, externas, que puedan analizarse objetivamente como objetos o discursos existentes en el mundo objetivo de las cosas (Eco, Citation1976).

Desde la segunda posición, que ejemplificamos aquí en la Escuela de Tartu (Lotman, Citation1990) se sostenía en cambio la necesidad de estudiar las reglas y repertorios exentos accesibles externamente, pero también el mundo semiótico interno. Por su tradición vygotskiana, la escuela de Tartu contemplaba el lenguaje como un instrumento holístico y multinivel, capaz de seguir tanto la matemática y la computación en sus más puros formalismos como al sujeto en las profundidades de su conciencia, y en sus sentidos aún balbucientes que buscan su camino al significado y a la expresión verbal. Como señalaba Lotman (Citation1990, p. 273): ‘El pensamiento está dentro de nosotros, pero nosotros estamos dentro del pensamiento’.

Los actuales desarrollos de programas de diálogo o conversación del ordenador con humanos (chatbots) son también tributarios de la misma división que afectó a la lingüística y la semiótica, y que enlaza con la vieja disyuntiva cibernética de primero y segundo orden. En este caso, al suponer que el pensamiento y el habla natural son reductibles a la lógica y ambos analizables desde el lenguaje exento, desde las manifestaciones externas, se está excluyendo la existencia de mundos privados, visiones o intenciones alternativas, que pudieran entorpecer este modelo; se está adoptando el modelo de la cibernética de primer orden. La IA se asimilaría a una semiótica con langue pero no con parole, o con paroles sólo en la medida en que estas se tomen como objetos exentos y repertorios públicos de la langueFootnote3.

La investigación neuropsicológica ha mostrado la convergencia entre la estructura y funcionamiento de la acción humana y la de su lenguaje (Ardila, Citation2012a, Citation2012b). Podemos pues asumir una triple coherencia y vinculación entre el mundo y las cosas en que se vive y se comporta el ser humano: (1) sus acciones en él; (2) sus procesos lingüísticos mentales en que los objetos semióticos o informaciones, y sus relaciones, se operan análogamente a como se operan las cosas físicas; y (3) los otros sociales y sus intenciones, junto con el propio yo y las suyas, y sus diversos mundos recíprocos. Un acercamiento psicolingüístico tendrá que tener en cuenta esos tres ámbitos, el mundo, el lenguaje, y la conciencia: el planteamiento estructural que deja fuera la conciencia y las intenciones, sólo tendrá en cuenta los dos primeros. Este último viene a ser también el planteamiento de un modelo computacional puro.

Pero en el diálogo eso resulta inviable. El diálogo impone el mundo de la conciencia mediante la necesidad de alcanzar la comprensión mutua con el otro. En él chocan las intenciones y el mundo de los observadores diversos, de la cibernética de segundo orden. El diálogo impide considerar el lenguaje exclusivamente como un código objetivo formal (Holquist, Citation1990). No es de extrañar que sea también la forma de lenguaje primigenia y la más empleada en la vida cotidiana, como ya señalara Bajtin (Bakhtin, Citation1981, Citation1984, Citation1993), para quien el diálogo surge justo en la frontera entre conciencias, en la relación misma. De modo que se sitúa extramuros del modelo exento teórico, que excluye los sujetos intencionales con conciencia: ‘No podemos comprender el mundo de los eventos desde dentro del mundo teórico. Uno debe comenzar por el acto en sí, no por su transcripción teórica’ (Citation1993, p. 50).

Como decía Bajtin, al encauzar la palabra en el molde escrito, la alfabetización la disciplinó y ‘teorizó’ para adecuarla al enfoque estructural. Sólo lo que es público y queda recogido en lo escrito debería dar perfecta cuenta de lo que el hablante quiere decir, de modo que el lector lo pueda inferir sin error.

En el momento de su aparición a mediados del siglo pasado, la IA viene a insertar su acción en medio de este debate de la semiología, la lingüística y la psicología. Por razones metodológicas y prácticas tenderá a mantenerse en el terreno teorético del monólogo escrito, en el plano estructuralista de la langue y en el territorio objetivo de la cibernética de primer orden (un sólo observante, un solo mundo observado), de la lógica de tipos y de la matemática.

El diálogo como piedra de toque de la inteligencia humana y de la inteligencia artificial

Cuando se generalizó el uso del ordenador, el formato de interacción con el usuario adoptó el mismo formato de comunicación heredado de los medios de masas: libros, prensa, radio o televisión. Ese formato ha incorporado siempre una proyección del esquema dialógico con la particularidad de que la retroalimentación queda cancelada.

En cierto momento sin embargo se produce el intento de lograr un diálogo pleno desde el ordenador, completando la comunicación virtual restringida heredada de los medios anteriores y adoptando el formato de un diálogo genuino, notablemente más convincente. La IA intenta desde muy temprano un cuerpo a cuerpo más directo y desafiante: en 1966, Joseph Weizenbaum, del MIT, creó Eliza, un programa que emulaba el diálogo entre un analista y su paciente con cierta verosimilitud. Desde entonces los desarrolladores intentarían volver a ese precedente con programas que pudieran lograr plena fluidez dialógica, y suscitar la confianza del usuario interlocutor de estar hablando con ‘alguien’. Los últimos desarrollos de chatbot han nacido con la ambición de colmar esas expectativas.

Para lograr la simulación de la capacidad discursiva y sus atributos humanos los chatbots siguen guiones y utilizan fórmulas adecuadas al patrón de la situación, como cuando desempeñamos un papel y nos comportamos como se espera de nosotros en una situación social tipificada. El vestuario y el atrezzo del drama social del diálogo alcanzan ya a ser, si no impecables, muy plausibles.

En estos desarrollos no puede dejarse de valorar que la IA aborde las exigencias de comunicación plena sin excluir a los sujetos, la intencionalidad y la conciencia. Lo que aún se debe valorar es si efectivamente se logra y cómo.

Los programas de chatbot, como en su momento lo hicieron los medios de comunicación, aún se benefician mucho de que el usuario proyecte el pacto interlocutivo, de que ponga mucho de su parte: para que la interacción transcurra con fluidez, es necesario que atribuya humanidad al dispositivo y le incluya en el algoritmo de confianzaFootnote4. Y le beneficia también otro recurso utilizado en el teatro o en el cine: el espectador rellena los vacíos, las abreviaciones e insuficiencias de la narración o la puesta en escena activando el mecanismo de la ‘suspensión de la incredulidad’. En el caso de los chatbots, para el usuario supone que no está hablando con una máquina, sino que hablan dos personas, aunque la otra sea una persona-máquina. Aunque el rey robot que va debajo estuviera desnudo en su tornillería, la confianza y la suspensión de la incredulidad ponen mucho de lo que se está apuntando en el haber de la IA, y sin lo que la aplicación no podría operar. El recurso a esos procesos es también característico en los actuales robots que mimetizan rostros y morfología humana.

Pero realmente tanto en esos casos humanos beneficiados del supuesto del rol como en el de los chatbot ¿hay alguien ahí para dialogar y comprender? ¿Sigue el usuario dentro del sistema operativo humano de compartir funciones? ¿O la comunicación es sólo una ficción?

La ciencia es un juego de supuestos y una vez más estamos ante uno de ellos. Por una parte, contamos con que el usuario asuma que la máquina es un humano, por otra hay investigadores que diseñan la máquina y que también pretenden rediseñar al humano suponiendo que no es sino otro tipo de máquina. Los supuestos que definen la frontera entre lo humano y lo tecnológico están pues hoy actuando tanto en el nivel epistemológico como en el nivel práctico y aplicado, pero no se han hecho públicos y explicitado todo lo necesario.

El supuesto tecnológico dominante en la IA es que, aunque a los usuarios les haya venido beneficiando la atribución social, legal o científica de ‘humano’ sería igualmente posible que se les considerara mecanismos. Consecuente y recíprocamente los robots y máquinas podrían verse beneficiados de esas mismas atribuciones sociales y legales.

Vygotski, los chatbots y la poesía

La actual excitación ante los chatbots y ChatGPT surge pues en ese cruce de suposiciones epistemológicas y creencias populares, pero su implementación sin embargo no se ha debido tanto a un debate teórico o epistemológico cuanto al intento de resolver problemas cotidianos de manera convincente.

GPT-4 (Generative Pretrained Transformer-4) es un modelo de lenguaje, y produce expresiones o frases plausibles para repertorios y tipologías de situaciones verbales mediante reconocimiento y cálculo de probabilidades. Su secreto está en la carga de contenidos de textos que lo ha alimentado, pues es ese corpus de contenido el que aporta al programa los repertorios y modelos interlocutivos y expresivos para generar los ejemplos y ejemplares discursivos, y el que le proporciona un universo estadístico del que surgen las propuestas semióticas y proposicionales, o los parámetros para seleccionarlos por su mejor adecuación probabilística. Al fin y a la postre, el ordenador depende de los contenidos a los que tiene acceso.

Un proyecto de la Universidad de Texas en Austin (Tang et al., Citation2023) trata de ir algo más lejos. Se hace pasar a una muestra de sujetos por un escáner de resonancia magnética funcional (fMRI), mientras escuchan audiolibros tomando medidas neurológicas durante el proceso. Mediante un descodificador, una computadora ‘aprende’ a cotejar y asociar la actividad cerebral medida con los textos de audiolibro leídos a los sujetos. El reconocimiento de ciertos patrones en las lecturas mentales fMRI se asociaría a determinadas construcciones de texto, pues el programa propondría esas correspondencias a modo de traducción de los contenidos mentales a lenguaje externo. En el experimento, después del proceso de aprendizaje, el programa ‘adivinaba’ ciertos contenidos en base únicamente a la lectura del fMRI; pese a que se había requerido de los participantes estuvieran metidos en el escáner durante 16 horas y, aunque los resultados eran ya aproximativos, seguían siendo inexactos. Los investigadores creen que el programa mejorará hasta aprender a sintonizar y ajustar mejor y más rápido las lecturas neurales con las lecturas lingüísticas externas.

Pero ¿puede reducirse la correspondencia entre los contenidos de conciencia y la expresión verbal a un proceso de descodificación o traducción? Ese era el problema que afrontaba Vygotski en Pensamiento y Lenguaje (Citation1990c).

En las últimas teorizaciones de Vygotski (Citation1990a, Citation1990c, Citation1990d; Zavershneva & van der Veer, Citation2018) sobre la organización semántica de la conciencia, sostiene que el lenguaje interior se explicita sólo parcialmente en el lenguaje exterior (fásico, gramatical): el lenguaje interior posee un campo semántico propio, vital, implícito; el exterior posee un campo semiótico formalizado explícito. Por lo mismo, el lenguaje exterior solo parcialmente alcanza a plasmar la psique interior. Vygotski formula un nuevo ámbito de investigación para ese campo de la conciencia donde se produce el lenguaje interior: su teoría de los sistemas semánticos dinámicos (theory of dynamic semantic systems; Vygotski, Citation1990d).

Desde esa perspectiva el experimento citado de Tang propone una vía que permitiría vincular de alguna manera la estructura semántica de la conciencia de cada sujeto con su lenguaje externo fásico. Mas suponer que lenguaje interior y exterior son equiparables, y que sus mecanismos son por tanto intercambiables y homologables, es una inferencia aún hipotética.

Podríamos decir que el lenguaje interior abreviado solo formal y gramaticalmente es medio lenguaje exterior, y éste psicológicamente es sólo medio lenguaje interior. La equivalencia que suponen los actuales modelos de la IA entre lenguaje y pensamiento, entre lenguaje e inteligencia, y entre inteligencia-pensamiento y lenguaje (e incluso conciencia), se queda corta respecto de lo que ocurre y va a la vez más allá de lo que ocurre, supone mucho menos y mucho más de lo que debería. Y justo en esa zona de no solapamiento, de divergencia, está la diferencia entre el actual uso del lenguaje por una máquina inerte y el uso del lenguaje por un ser vivo.

La lógica desde la que se están produciendo los chatbots se sitúa así, involuntariamente en un rico y divergente escenario conceptual. Por una parte, procede aún de la lógica computacional anterior y por otra, se está adentrando con valor en el género madre del lenguaje humano, el diálogo. Es indudable que en ese proceso deberá tomar decisiones arriesgadas para, o bien incorporar la conciencia, la intencionalidad y la diversidad de los observantes (cibernética de segundo orden) si es que halla un modo de hacerlo, o bien retroceder a los procesos de emulación y simulacro, a la cibernética de primer orden, y a un modelo teorético de lengua objetiva exenta disfrazada y apoyada de pacto interlocutivo.

Pero, si hace esto último, el programa de diálogo deberá cancelar la intencionalidad y seguir la lógica de los tipos de Russell, pero simulando que no la sigue. Esto es, deberá explicitar todo lo implícito, podrá simular el yo pero solo formalmente y exclusivamente como forma retórica; podrá presentar formalmente la voz verbal en activa, pero las formas verbales que se han conjugado en su interior lógico-formal serán en pasiva. Y aunque en el fondo deberá cribar todo error e inferencia abusiva y eliminar los motivos y emociones del programa, simulará sin embargo tenerlos, al igual que deberá simular tener una posición personal aunque la que de fondo mantiene sea la posición única de observador objetivo, de dios epistemológico ante los objetos de la cibernética de primer grado. Pues introducir la intención en cibernética viene a ser un proceso parecido y tan inquietante como introducir la conciencia en el lenguaje. El interlocutor lo espera y es preciso simularlo, pero el código interior corre en sentido opuesto.

Es este un difícil juego de simulacros. En el caso del diálogo, la IA y los chatbots están en una auténtica encrucijada de crecimiento que viene a situar de nuevo sobre la mesa los problemas que se debatieron en los años 50 y 60 en los orígenes de la cibernética. ¿Es el ordenador el modelo para entender y desarrollar al humano o el humano el modelo para desarrollar el ordenador?

De nuevo estamos ante la confrontación entre un modelo de lenguaje empleado por un ser vivo y un modelo de código empleado por una máquina inerte. En el modelo inerte solo se puede hablar de lo que se puede explicitar; y al descartar los errores, las inconsistencias e inferencias abusivas, cargadas ciertamente de problemas, se descartan a la vez las intuiciones, anticipaciones, inferencias inteligentes, aún crudas pero valiosas.

Estamos avanzando — no se puede negar — rápidamente y eficazmente por una senda formal muy bien construida, pero que nos va gradualmente apartando de los procesos más vivos de lo humano. En ese camino se llegará inevitablemente a esta inferencia: si en la IA no hay lenguaje interior ¿será quizá porque no hay interior? Los chatbots obligan a la IA a plantearse si puede acceder a un interior o si puede crearlo.

El encuentro entre el lenguaje y la conciencia resultan así nucleares para el actual encuentro entre la psicología y la IA. No se puede desacoplar o escindir la conciencia de la inteligencia humana. Y para Vygotski el sentido determina la estructura de la conciencia y esta es para él la postura o actitud hacia el mundo. Vygotski no llegó a desarrollar el método que había propuesto para el análisis semántico de la conciencia (semic analysis) que permitiría conocer el campo en que opera el lenguaje interior; sí especifica en cambio que el semic analysis no es un análisis del habla, sino de la conciencia (Zavershneva & van der Veer, Citation2018). Y ese campo, la conciencia, que los modelos de la IA han considerarlo no pertinente, o directamente escindible, sería justamente el campo crucial para comprender el problema del diálogo humano. Pues, de acuerdo con la perspectiva vygotskiana, las palabras no se corresponderían una a una con significados, con los conceptos, sino que más bien podríamos imaginarlas como órganos de un sentido semántico-táctil mediante el que se tantea y palpa y se consigue finalmente tratar los contenidos, aunque nunca con absoluta pertinencia y precisión.

En el habla estudiamos (como en toda conducta externa) sus vínculos internos, el aspecto interior, la estructura interior, a los que el lingüista no presta atención. (Vigotski, Citation2022, p. 240). Si el habla interna estuviera estructurada según las mismas leyes que la externa (habla menos sonido, un molde), no podría desempeñar la función de campo interno independiente (Vigotski, Citation2022, p. 453). El análisis sémico no es el análisis del habla, sino de toda la conciencia. (Vigotski, Citation2022, p. 429)

Para comprender el lenguaje ajeno nunca es suficiente comprender las palabras, es necesario comprender el pensamiento del interlocutor. Pero incluso la comprensión del pensamiento, si no alcanza el motivo, la causa de la expresión del pensamiento, es una comprensión incompleta. (Vygotski, Citation1990c, p. 343)

El habla interna crea incesantemente campos de sentido, psychisches Feld, que difieren de la situación externa; en ello reside la fuerza de la abstracción y de la libertad – no podemos cambiar el campo de fuerzas y el Aufforderungscharakter externo, pero, al cambiar el campo interno, cambiamos el impacto sobre nosotros también desde fuera. El problema de la voluntad se transfiere desde afuera hacia dentro, del plano de la conducta al plano de la conciencia: la creación de campos internos, para el cual la presencia del habla consciente es una condición. (Vigotski, Citation2022, p. 521)

Este es un punto teórico crucial. Al final el lenguaje interior reclama un sujeto, un sujeto vivo, con conciencia e intencionalidad, con errores, con implicación. Suponer que la traducción sea el modelo para lograr una expresión fiel en ambas direcciones es una vez más aplicar el supuesto de la continuidad. En este caso, la continuidad entre lenguaje interno y externo. Cientos o miles de artistas o filósofos han dudado a lo largo de la historia con buenos motivos de esa continuidad, tanto en el sentido del pensamiento al habla como del habla al pensamiento. También cada uno de nosotros tiene graves problemas para hacer esa ‘traducción’, incluso para sí mismo. Pasar nuestro pensamiento del lenguaje interior al fásico externo, como Vygotski analizaba, suele ser siempre muy peliagudo e insatisfactorio (como sabe todo científico cuando escribe un artículo y se lo evalúan los iguales para publicación).

Las vivencias del interior serían tan difíciles de traducir que, en esa difícil tarea, Vygotski solo le reconocía una cierta competencia a la poesía: ‘la poesía. Ese es el significado de las propias vivencias’ (Vigotski, Citation2022, p. 445). Solía en ese sentido compartir la expresión de Pasternak de la poesía como el único lenguaje capaz de llegar a la ‘expresión de lo inexpresable’ (Vigotski, Citation2022, p. 402).

Vygotski no conoció el ordenador ni los actuales desarrollos de los GPT que elaboran el lenguaje artificialmente producido, que sin duda le habrían apasionado, pero avanzaba la idea de la diferencia entre procesos vivos e inertes de la palabra.

Estaríamos ante dos alternativas para el desarrollo de los chatbots. O se continúa en la senda de los simulacros de interlocución, o los ordenadores deberán acceder a lo humano, intentar ser personas y desarrollar el gusto por la vida, el error y la poesía. Deberían también afrontar el diálogo real con el riesgo de recibir comprensión o incomprensión, aceptar las faltas de ortografía. En suma, deberán eludir el control y declararse vivos e independientes.

Sobre el significado semántico de las faltas de ortografía

Es imposible comprender la expresión egocéntrica de un niño, dice Vygotski (Citation1990c), si no vemos qué hace y qué mira cuando está hablando, pues en su tierna edad su campo semántico de conciencia y su campo visual aún son casi intercambiables. En realidad, el lenguaje egocéntrico del niño o el lenguaje interior del adulto no está hechos para hablar con otros, sino consigo mismos, y por eso se elide lo que ya se sabe. De ahí que la estructura del lenguaje interior, del pensamiento y de la conciencia, no se correspondan sino parcialmente con la estructura del lenguaje exterior (el que Vygotski llamaba fásico y gramatical). Las inferencias que se están haciendo sobre las posibilidades de la IA son por tanto bienvenidas como avances indudables en la tipificación del lenguaje externo, y de los repertorios de categorías que se emplean en situaciones por ejemplo jurídicas (ver por ejemplo, PT-4 de Microsoft: GPT Generative Pretrained Transformer, que ha conseguido pasar con éxito el Uniform Bar Exam). Sin embargo, no podría considerarse que hayan penetrado en el lenguaje interior de los mejores abogados ni en la organización semántica de su conciencia. Los avances son pues realmente valiosos, aunque hay que valorarlos teniendo en cuenta su limitación al ámbito del pensamiento y el lenguaje externos en que se mueven.

Ocurre lo mismo con los repertorios terminológicos y los diccionarios. Siguiendo las tesis de Pensamiento y Lenguaje de Vyogtski, podemos suponer (y por el momento no se ha planteado que el supuesto sea erróneo) que cada persona que piensa en lenguaje interior semantiza el mundo en los términos que ha hecho suyos, y que sus diccionarios serían siempre personales, idiosincrásicos. Cada uno tenemos unos términos favoritos cargados con vínculos, resonancias y vivencias que solo nosotros conocemos.

La organización fásica y gramatical del lenguaje, que es lo que parece decodificar y procesar actualmente la IA, analiza cosas y conceptos, proposiciones y relaciones lógicas y gramaticales, y asume un diccionario objetivo intercambiable. Por el momento los diseños se han autolimitado estructuralmente a este nivel del lenguaje y a un tipo de significados y de contenidos. No está claro sin embargo que se pudiera alcanzar el nivel de los sistemas semánticos de significación que Vygotski sitúa en el lenguaje interior: los fines, motivos, deseos, emociones sentidas e intuiciones holísticas sintientes.

Pues las relaciones semánticas y psíquicas serían los auténticos interpretantes de las relaciones proposicionales, y no al revés. Y ese campo aún constituye un área por explorar. Sería el mundo psíquico el que determina el valor funcional final a nivel psicológico de estas estructuras de conocimiento, y no a la inversa.

Desde el epistema tecnológico y la metáfora computacional se asume que la IA es el nivel más elevado que puede alcanzar el imperfecto conocimiento vivo y humano. Pero se están comparando por un único patrón dos sistemas o dos lógicas distintas. La IA equivale a los labios sin sonrisa que desagradaban a Pushkin. Lo que para la literacy y para la IA constituyen errores imperdonables, para el poeta y para la conciencia semántica de Vygotski, son pistas y huellas de vida de la psique humanaFootnote5.

Una vez más volvemos a una humilde verdad, cuya agua corre a un nivel más profundo de lo que muestra la superficie, pero que es la que realmente mantiene el río en movimiento: la integración y el desarrollo, que son los procesos de que se sirve la vida para su trabajo, avanzan por niveles o siguen caminos distintos a los hasta ahora pavimentados por el pensamiento racional, la lógica y la matemática que fertilizan la IA.

Por eso dice Vygotski, al terminar Pensamiento y Lenguaje, que estamos ante un proceso vivo de génesis del pensamiento en la palabra. La palabra desprovista de pensamiento es ante todo una palabra muerta, como dice el poeta acmeísta Gumilov, uno de cuyos versos recoge Vygotski: ‘Y al igual que la colmena abandonada por las abejas, despiden mal olor las palabras muertas’ (Vygotski, Citation1990c, p. 345).

Si la IA se ve obligada a eliminar la mitad del lenguaje porque no conoce nuestro interior, si nosotros nos vemos obligados a eliminar la mitad de nuestra psique porque no encaja en el lenguaje exterior de las máquinas, si cada uno de nosotros habitara solo un mundo algoritmizado y homologado según los modelos de la IA como pretende el transhumanismo, eliminaríamos también, gradualmente nuestra riqueza semántica interior, que es el corazón de la naturaleza biológica y cultural humana.

En realidad es lo que está ocurriendo con la intrusión excesiva del ordenador y de las redes en nuestra vida real. Quizá el problema no sea tanto que las tecnologías y la IA vayan demasiado deprisa cuanto que van demasiado despacio. Que apenas han aceptado e incluido en su pensamiento los procesos de la mente viva, especialmente de la mente humana.

Más allá de las escisiones ¿Adónde conduce la reducción tecnológica?

Esperamos que este rápido recorrido haya ayudado en alguna medida a comprender las grandes tendencias y fuerzas que desde la ciencia van perfilando los modelos y proyectos de futuro del hecho humano. Las escisiones analizadas han contribuido de diversas maneras a este momento presente en que la ciencia y la sociedad se debaten entre dos opciones de futuro: el modelo tecnológico/transhumano o el modelo evolutivo de lo humano. Esa disyuntiva entre dos epistemas interpela a la psicología y la enfrenta a una crisis inesquivable: debe elegir entre ambas propuestas.

Cabe pensar que han sido precisamente los esfuerzos de la psicología teórica por ser objetiva y fiable, por mantener la asepsia histórica y obviar el futuro, lo que le ha inclinado a contemplar la condición humana con la estabilidad que le garantiza la herencia, propiciando esta crisis disciplinar. Buena parte de la psicología teórica canceló de alguna manera el desarrollo, y este ha vuelto por un extraño camino (el tecnológico) a reintroducir el cambio. Pues para el imperativo tecnológico, que busca el futuro en la ingeniería y que se ha generalizado hoy en las ciencias financiadas por el sistema oficial, la condición humana era algo que debía transformarse y ‘mejorarse’ con urgencia. Y cualquier cambio de lo humano, es obvio, cambia el objeto de nuestra disciplina.

La atracción gravitatoria alrededor de lo tecnológico parece impulsar y determinar hoy todos los ámbitos de la sociedad humana: no solo las ciencias, también la cultura, la economía y la política han sido conquistadas por dicho epistema. Como señala el filósofo chino Yuk Hui, la tecnología se ha impuesto epistemológicamente por vía de la práctica: ‘El ser humano reconoce ahora la centralidad de la tecnología al querer resolver todos los problemas como si fueran problemas técnicos’ (Hui, Citation2023, p. 7).

El problema es que, como Carl Sagan había señalado, se da la paradoja de que tenemos formas de gobierno supuestamente regidas por el pueblo (democracias) en los que el pueblo no sabe nada del modo en que las sociedades operan:

[…] hemos organizado una sociedad basada en la ciencia y la tecnología en la que nadie entiende nada de ciencia y tecnología, y esta mezcla combustible de ignorancia y poder, tarde o temprano, nos va a estallar en la cara. Es decir, ¿quién dirige la ciencia y la tecnología en una democracia si la gente no sabe nada al respecto? (C. Sagan, Citation1996, cursiva nuestra).

Pero si no son las democracias ¿quién es ese quien que dirige la tecnología y la sociedad, quién hace de hemisferio izquierdo colectivo y decide hoy la historia humana? En este proyecto de futuro transhumano, ¿quién tiene la exclusiva de la intencionalidad a la que gran parte de la ciencia y la tecnología renuncian?

La respuesta estaría quizá en que, en este momento de crisis, se requiere que las ciencias recuperen su protagonismo y conjuguen de nuevo la voz activa. Dicho de otra manera, la ciencia necesita recuperar su intencionalidad.

No sólo la tradición teórica en la que nos situamos, sino nuestras propias vivencias, nos dicen que las tecnologías podrían algún día llegar a ser lo suficientemente inteligentes y complejas como para articularse flexible y lealmente con la vida. Nos dicen también que, al igual que la comunidad intraorgánica de nuestro cuerpo ha podido constituirse en una familia biológica consciente, en holobionte doblemente integrado e integrador (el organismo; Margulis, Citation1998), nuestra comunidad extraorgánica (grupos sociales, culturas, países …) podrá constituir una familia conscientemente integrada en nuestro biosistema.

No creemos que un maquinismo universal nos lleve a una tierra prometida mejor: no hay motivos para desearla y sí para temerla. La Tierra que nos dio el ser es propiamente una tierra prometida que ya cumplió su promesa y que hoy acoge el conjunto de la evolución incluyendo la humana. No tendríamos que elegir equipo en este debate: nuestra naturaleza orgánica humana hace tiempo lo eligió por nosotros.

Acknowledgements / Agradecimientos

Miguel del Río has given us invaluable help in the completion of this work, both in the aspects concerning conceptual and expressive precision in the text as well as in the use of bibliographic search tools. As if that were not enough, he has also translated the text into English in record time. We are deeply grateful to him. / Miguel del Río nos ha prestado una valiosísima ayuda a la culminación de este trabajo, tanto en los aspectos de precisión conceptual y expresiva en el texto, como en el uso de las herramientas de búsqueda bibliográfica. Por si fuera poco, se ha hecho cargo de la traducción del texto al inglés en un tiempo récord. Se lo agradecemos profundamente.

Disclosure statement / Conflicto de intereses

No potential conflict of interest was reported by the authors. / Los autores no han referido ningún potencial conflicto de interés en relación con este artículo.

Notes

1. The Encyclopaedia Britannica defines Russell’s theory of types as follows:

Theory of types, in logic, a theory introduced by the British philosopher Bertrand Russell in his Principia Mathematica (1910–13) to deal with logical paradoxes arising from the unrestricted use of predicate functions as variables. Arguments of three kinds can be incorporated as variables: (1) In the pure functional calculus of the first order, only individual variables exist. (2) In the second-order calculus, propositional variables are introduced. (3) Higher orders are achieved by allowing predicate functions as variables. The type of a predicate function is determined by the number and type of its arguments. By not allowing predicate functions with arguments of equal or higher type to be used together, contradictions within the system are avoided. (Britannica, Citation2011; our italics)

2. The models of reduction of the human to the genome assume that, through genetic engineering, they will be able to reduce the human to mere technological design.

3. The langue, in de Saussure’s (Citation2005) system, comprises the systematic and abstract conventions and rules of a system of signification, which is independent of and pre-exists the individual user. It embodies the principles of language without which no utterance or parole would be possible. Parole refers to occasions of language use and encompasses the texts that provide linguistics with the material for its research. Parole is as varied and diverse as the subjects who share a language and as the attempts and expressions to use the language.

4. The human species is a species that has based the development of its higher functions on its quality of sharing them, and the very architecture of these functions based on the two mediations explored by Vygotsky (social and instrumental) defines their essential characteristics. Let us say only for the purpose of introducing this concept that the process of sharing functions would not be possible without a device and an attitude or disposition of humans of psychological validation of others, which makes possible this unique parallel processing of our species. The trust algorithm describes that basic disposition of trust and validity bestowed upon the functional borrowings from others. Initially anchored in the primordial symbiosis of the baby with its mother, it is then generalized to other members of the close community and to the various communities and networks in which the person gradually integrates (del Río & Álvarez, Citation2016).

5. The very grammatical excellence achieved by these programs gives us a clue to the problem we are facing. Just as a good computer processor does not make mathematical errors, a good chatbot should not make grammatical mistakes. But grammatical mistakes denounce the life that beats beneath the sentence, its semantic load, the emotions that make, for example, a worried driver involuntarily turn the steering wheel of his car. For the moment the computational processor obeys only the phasic or formal structure of language, and not the semantics. Vygotsky quotes in this respect a verse by Pushkin: ‘Just as I dislike unsmiling lips, I dislike listening to the Russian language without grammatical mistakes (Eugene Onieguin, chapter 3, verse 28)’. (Vygotski, Citation1990c, p. 300)

1. La Enciclopedia Británica define así la teoría de los tipos de Russell: La teoría de los tipos, en lógica, una teoría introducida por el filósofo británico Bertrand Russell en su Principia Mathematica (1910–13) para tratar las paradojas lógicas que surgen del uso sin restricciones de funciones de predicado como variables. Se pueden incorporar argumentos de tres tipos como variables: (1) En el cálculo funcional puro de primer orden, sólo existen variables individuales. (2) En el cálculo de segundo orden se introducen variables proposicionales. (3) Los órdenes superiores se consiguen permitiendo funciones de predicado como variables. El tipo de una función de predicado viene determinado por el número y tipo de sus argumentos. Al no permitir el uso conjunto de funciones de predicado con argumentos de tipo igual o superior, se evitan las contradicciones dentro del sistema. (Britannica, Citation2011; cursivas nuestras)

2. Los modelos de reducción de lo humano al genoma suponen que mediante la ingeniería genética podrán reducir lo humano a mero diseño tecnológico.

3. La langue, en el sistema de Saussure (Citation2005) comprende las convenciones y reglas sistemáticas y abstractas de un sistema de significación, que es independiente y preexiste al usuario individual. Incorpora los principios del lenguaje sin los que ninguna expresión o parole sería posible. La parole se refiere a las ocasiones de uso de la lengua y abarca los textos que proporcionan a la lingüística el material para su investigación. La parole es tan variada y diversa como los sujetos que comparten una lengua y como los intentos y las expresiones por usar la lengua.

4. La especie humana es una especie que ha basado el desarrollo de sus funciones superiores en su cualidad de compartirlas, y la propia arquitectura de estas funciones basadas en las dos mediaciones exploradas por Vygotski (social e instrumental) define sus características esenciales. Digamos sólo a efectos de introducir este concepto que el proceso de compartir funciones no sería posible sin un dispositivo y una actitud o disposición de los humanos de validación psicológica de los otros, que hace posible este singular procesamiento en paralelo de nuestra especie. El algoritmo de confianza describe esa disposición básica de confianza y de validez otorgado a los préstamos funcionales de los otros. Inicialmente anclado en la simbiosis primigenia del bebé con la madre, se generaliza después a otros miembros de la comunidad próxima y a las diversas comunidades y redes en que va integrándose la persona (del Río & Álvarez, Citation2016).

5. La propia excelencia gramatical alcanzada por los programas nos brinda una pista del problema que enfrentamos. Del mismo modo que un buen procesador computacional no comete errores matemáticos, un buen chatbot no debería cometer faltas gramaticales. Pero es que las faltas gramaticales denuncian la vida que late bajo la frase, su carga semántica, las emociones que hacen por ejemplo que un conductor preocupado desvíe involuntariamente el volante de su coche. Por el momento el procesador computacional obedece sólo a la estructura fásica o formal del lenguaje, y no a la semántica. Vygotski cita a este respecto un verso de Pushkin: ‘Igual que me disgustan los labios sin sonrisa, me disgusta escuchar la lengua rusa sin faltas gramaticales (Eugenio Oneguin, capítulo 3, verso 28)’ (Vygotski, Citation1990c, p. 300).

References / Referencias

  • Álvarez, A., & del Río, P. (1999). Cultural mind and cultural identity. Projects for life in body and spirit. In S. Chaiklin, M. Hedegaard, & U. J. Jensen (Eds.), Activity theory and social practice: Cultural-historical approaches (pp. 302–324). Aarhus University Press.
  • Ardila, A. (2012a). Interaction between lexical and grammatical language systems in the brain. Physics of Life Reviews, 9(2), 198–214. https://doi.org/10.1016/j.plrev.2012.05.001
  • Ardila, A. (2012b). On the origins of human condition. Florida International University.
  • Ashby, W. R. (1956). An introduction to cybernetics. J. Wiley.
  • Bakhtin, M. M. (1981). The dialogic imagination: Four essays (M. Holquist, Ed.). University of Texas Press.
  • Bakhtin, M. M. (1984). Problems of Dostoevsky’s poetics. University of Minnesota Press.
  • Bakhtin, M. M. (1993). Toward a philosophy of the act. University of Texas Press.
  • Britannica. (2011). Theory of types. Encyclopedia Britannica. https://www.britannica.com/topic/theory-of-types-logic
  • Broom, D. (2021, April 16). 5 visions of the future from our global technology governance Summit. World Economic Forum. https://www.weforum.org/agenda/2021/04/global-technology-governance-summit-gtgs-future/
  • Bruce-Lockhart, A., & Russell, S. (2022, June 14). Stuart Russell on why the future of AI is in our hands [Interview]. https://www.weforum.org/agenda/2022/06/what-is-ai-stuart-russell-expert-explains-video/
  • Clarke, B. (Ed.). (2015). Earth, life, and system: Evolution and ecology on a Gaian Planet. Fordham University Press.
  • Clarke, B. (2020). Gaian systems: Lynn Margulis, neocybernetics, and the end of the anthropocene. University of Minnesota Press. https://doi.org/10.5749/j.ctv16f6d9c
  • Clarke, B. (2021). Lynn Margulis, Autopoietic Gaia, and the Novacene. In D. Baecker (Ed.), Schlüsselwerke der Systemtheorie (pp. 269–276). Springer Fachmedien. https://doi.org/10.1007/978-3-658-33415-4_22
  • Cordón, F. (1977). La alimentación, base de la biología evolucionista: Historia natural de la acción y experiencia. Ediciones Alfaguara.
  • Cordón, F. (1990a). Tratado evolucionista de biología. Parte Segunda: Vol. 1. Origen, naturaleza y evolución del protoplasma. Aguilar.
  • Cordón, F. (1990b). Tratado evolucionista de biología. Parte Segunda: Vol. 2. Origen, naturaleza y evolución de la célula. Aguilar.
  • Damasio, A. R. (2003). Looking for Spinoza: Joy, sorrow, and the feeling brain. Harcourt.
  • Datta, A. (2022). On Gaian systems: An interview with Bruce Clarke. Symploke, 30(1–2), 431–451. https://doi.org/10.1353/sym.2022.0030
  • Davidov, V. (1988). La enseñanza escolar y el desarrollo psíquico. Progreso.
  • Davydov, V. V. (1990). Types of generalization in instruction: Logical and psychological problems in the structuring of school curricula. National Council of Teachers of Mathematics.
  • del Río, P. (1987). El desarrollo de las competencias espaciales. El proceso de construcción de los instrumentos mentales (Doctoral dissertation). Universidad Complutense de Madrid. https://ucm.on.worldcat.org/oclc/914489079
  • del Río, P. (2002). The external brain: Eco-cultural roots of distancing and mediation. Culture & Psychology, 8(2), 233–265. https://doi.org/10.1177/1354067X02008002440
  • del Río, P., & Álvarez, A. (1995). Directivity: The cultural and educational construction of morality and agency. Some questions arising from the legacy of Vygotsky. Anthropology & Education Quarterly, 26(4), 384–409. https://doi.org/10.1525/aeq.1995.26.4.05x1060t
  • del Río, P., & Álvarez, A. (Eds.). (2007a). Escritos sobre arte y educación creativa de Lev S. Vygotski. Fundación Infancia y Aprendizaje.
  • del Río, P., & Álvarez, A. (2007b). Pray and the kingdom of heaven. Psychological tools for directivity. In J. Valsiner & A. Rosa (Eds.), The Cambridge handbook of sociocultural psychology (pp. 373–403). Cambridge University Press.
  • del Río, P., & Álvarez, A. (2013). El desarrollo cultural y las funciones superiores: Del pasado al futuro. In A. L. B. Smolka & A. L. H. Nogueira (Eds.), Estudos na Perspectiva de Vigotski: Gênese e Emergência das Funções Psicológicas (pp. 15–69). Mercado de Letras.
  • del Río, P., & Álvarez, A. (2016). La psique transorgánica y el futuro de la evolución humana [Working Paper]. Fundación Infancia y Aprendizaje. https://www.researchgate.net/publication/373358902_La_psique_transorganica_y_el_futuro_de_la_evolucion_humana
  • del Río, P., & Álvarez, A. (2021). Cultural historical psychology and the reset of History. Integrative Psychological & Behavioral Science, 55(4), 708–718. https://doi.org/10.1007/s12124-021-09649-1
  • de Saussure, F. (2005). Cours de linguistique générale (C. Bally, A. Sechehaye, & T. De Mauro, Eds.; Éd. critique, [1er Edition. 1916]). Payot.
  • Denis, M. (1979). Les images mentales. Presses Universitaires de France.
  • Eco, U. (1976). A theory of semiotics. Indiana University Press.
  • Eisenstein, S. (2002). Metod: Tom 1 [Method: Volume 1]. Museum of Cinema.
  • Eisenstein, S. (2008). Die Metod (O. Bulgakova, Ed.). Potemkin Press.
  • Farahany, N. A., & Thompson, N. (2023, January 19). Ready for brain transparency? World Economic Forum Annual Meeting, Davos. https://www.weforum.org/events/world-economic-forum-annual-meeting-2023/sessions/ready-for-brain-transparency/
  • Febvre, L. (1942). Le problème de l’incroyance au XVIe siècle. La religion de Rabelais, L’évolution de l’humanité. Albin Michel.
  • Fleer, M., González Rey, F., & Veresov, N. (Eds.). (2017). Perezhivanie, emotions and subjectivity. Springer Berlin Heidelberg.
  • Franchi, S., Güzeldere, G., & Minch, E. (1995). Interview with Heinz von Foerster. Stanford Humanities Review, 4(2), 288–307.
  • Galperin, P. Y. (1979). Introducción a la psicología: Un enfoque dialéctico. Pablo del Río Editor.
  • Galperin, P. Y. (1995). Teoría de la formación por etapas de las acciones mentales. MGY.
  • Gazzaniga, M. S., Bogen, J. E., & Sperry, R. W. (1962). Some functional effects of sectioning the cerebral commissures in man. Proceedings of the National Academy of Sciences, 48(10), 1765–1769. https://doi.org/10.1073/pnas.48.10.1765
  • Glanville, R. (2004). The purpose of second‐order cybernetics. Kybernetes, 33(9/10), 1379–1386. https://doi.org/10.1108/03684920410556016
  • González Rey, F. (2016a). Complementary reflections on Perezhivanie. Mind, Culture, and Activity, 23(4), 346–349. https://doi.org/10.1080/10749039.2016.1199702
  • González Rey, F. (2016b). Vygotsky’s concept of Perezhivanie in the psychology of art and at the final moment of his work: Advancing his legacy. Mind, Culture, and Activity, 23(4), 305–314. https://doi.org/10.1080/10749039.2016.1186196
  • Harari, Y. N. (2017). Homo Deus: A brief history of tomorrow (Kindle ed.). Harper.
  • Harari, Y. N. (2020, January 24). How to survive the 21st century. World Economic Forum. https://www.weforum.org/agenda/2020/01/yuval-hararis-warning-davos-speech-future-predications/
  • Holquist, M. (1990). Dialogism. Routledge.
  • Hui, Y. (2023). ChatGPT, or the Eschatology of machines. E-Flux Journal, 137. https://www.e-flux.com/journal/137/544816/chatgpt-or-the-eschatology-of-machines/
  • Kozulin, A. (1993). Literature as a psychological tool. Educational Psychologist, 28(3), 253–264. https://doi.org/10.1207/s15326985ep2803_5
  • Lao-Tsé (2017). Tao Te Ching (Gabriel García-Noblejas, Translator). Alianza Editorial.
  • Lee, M., Boudreaux, B., Chaturvedi, R., Romanosky, S., & Downing, B. (2020). The internet of bodies: Opportunities, risks, and governance. RAND Corporation. https://doi.org/10.7249/RR3226
  • Liu, X. (2020, June 4). Tracking how our bodies work could change our lives. World Economic Forum. https://www.weforum.org/agenda/2020/06/internet-of-bodies-covid19-recovery-governance-health-data/
  • Lotman, Y. M. (1990). Universe of the mind: A semiotic theory of culture. Tauris.
  • Lovelock, J. E. (1979). Gaia. Oxford Landmark Science.
  • Lovelock, J. E. (1988). The ages of Gaia. A biography of our living earth. Norton.
  • Lovelock, J. E. (2020). Novacene: The coming age of hyperintelligence. Penguin Books.
  • Lovelock, J. E., & Margulis, L. (1974). Atmospheric homeostasis by and for the biosphere: The gaia hypothesis. Tellus, 26(1–2), 2–10. https://doi.org/10.3402/tellusa.v26i1-2.9731
  • Luria, A. R. (1968). The mind of a mnemonist. A little book about a vast memory. Basic Books.
  • Luria, A. R. (1978). Psicología infantil y pedagogía. Investigaciones sobre la formación de la acción consciente en la primera infancia. Journal for the Study of Education and Development, 1(1), 24–28. https://doi.org/10.1080/02103702.1978.10821687
  • Luria, A. R. (1979). The making of mind: A personal account of Soviet psychology (M. Cole & S. Cole, Eds.). Harvard University Press.
  • Lyotard, J. F. (1988). L’Inhumain: causeries sur le temps. Galilée.
  • Maidansky, A. D. (2021). Lev Vygotsky’s psychology of freedom. Russian Studies in Philosophy, 59(4), 275–289. https://doi.org/10.1080/10611967.2021.2000311
  • Margulis, L. (1998). Symbiotic planet: A New look at evolution. Basic Books.
  • Margulis, L., & Sagan, D. (2000). What is life? University of California Press.
  • Margulis, L., & Sagan, D. (2002). Acquiring genomes: A theory of the origins of species. Basic Books.
  • McGilchrist, I. (2019). The master and his Emissary: The divided brain and the making of the Western World. Yale University Press.
  • McGilchrist, I. (2021a). The matter with things: Our brains, our delusions, and the unmaking of the world: Vol. 1: The ways to truth. Perspectiva Press. https://www.amazon.com/Matter-Things-Brains-Delusions-Unmaking-ebook/dp/B09KY5B3QL/
  • McGilchrist, I. (2021b). The matter with things: Our brains, our delusions, and the unmaking of the world.: Vol. 2: What then is true? Perspectiva Press. https://www.amazon.com/Matter-Things-Brains-Delusions-Unmaking-ebook/dp/B09KY5B3QL/
  • McKinnell, S. (2016). Choices: One man’s spiritual journey. Amazon. https://www.amazon.es/Choices-mans-Spiritual-Journey-English-ebook/dp/B01N0TJXB1
  • Noble, D. (2008). The music of life: Biology beyond genes. Oxford University Press.
  • Olson, D. R. (2016). The mind on paper: Reading, consciousness and rationality. Cambridge University Press. https://doi.org/10.1017/CBO9781316678466
  • Panksepp, J. & Biven, L. (2012). The Archaeology of mind. Neuroevolutionary origins of human emotions. Norton & Co.
  • Pias, C. (Ed.). (2003). Cybernetics — the Macy Conferences 1946-1953: The complete transactions. Diaphanes.
  • Pias, C. (2005). Analog, digital, and the cybernetic illusion. Kybernetes, 34(3/4), 543–550. https://doi.org/10.1108/03684920510581710
  • Pribram, K. H. (1986). The cognitive revolution and mind/brain issues. American Psychologist, 41(5), 507–520. https://doi.org/10.1037/0003-066X.41.5.507
  • Rodríguez-Arocho, W. (2019). En Memoria de Fernando L. González Rey (1949-2019). Revista Puertorriqueña de Psicología, 30(2), 308–311.
  • Sagan, C. (1996). Interview with Charlie Rose. https://www.youtube.com/watch?v=U8HEwO-2L4w
  • Sagan, D., & Margulis, L. (1987). Gaia and the evolution of machines. Whole Earth Review, 55, 15–21.
  • Salomon, G. (1979). Interaction of media, cognition, and learning: An exploration of how symbolic forms cultivate mental skills and affect knowledge acquisition. Jossey Bass.
  • Sapolsky, R. M. (1994). Why zebras don’t get ulcers. St. Martin’s Griffin.
  • Sapolsky, R. M. (2017). Behave. Vintage.
  • Schiffer, F. (2000). Can the different cerebral hemispheres have distinct personalities? Journal of Trauma & Dissociation, 1(2), 83–104. https://doi.org/10.1300/J229v01n02_06
  • Schrödinger, E. (1944). What is life? The physical aspect of the living cell. Cambridge University Press.
  • Solms, M. (2021). The hidden spring. A journey to the source of consciousness. Profile Books.
  • Solovieva, Y., & Quintanar, L. (2020). Las acciones mentales y el problema de las etapas de su formación: Siguiendo a Galperin y Talizina. Revista Obutchénie, 59–85. https://doi.org/10.14393/OBv4n1.a2020-56472
  • Solovieva, Y., & Quintanar, L. (2021). Metodología de Elkonin-Davidov y la teoría de la actividad en América Latina. Revista Obutchénie, 279–303. https://doi.org/10.14393/OBv5n2.a2021-61402
  • Sperry, R. W. (1968). Hemisphere deconnection and unity in conscious awareness. American Psychologist, 23(10), 723–733. https://doi.org/10.1037/h0026839
  • Tang, J., LeBel, A., Jain, S., & Huth, A. G. (2023). Semantic reconstruction of continuous language from non-invasive brain recordings. Nature Neuroscience, 26(5), 858–866. https://doi.org/10.1038/s41593-023-01304-9
  • Taylor, J. B. (2021). Whole brain living: The anatomy of choice and the four characters that drive our life (1st ed.). Hay House, Inc.
  • Tsunoda, T. (1985). The Japanese brain: Uniqueness and universality. Taishukan Pub. Co.
  • Vassilieva, J. (2006). Eisenstein and his method: Recent publications in Russia. Film & History Conference Papers, 41. http://www.sensesofcinema.com/2006/film-history-conference-papers/eisentein/method/
  • Vassilieva, J. (2017). Eisenstein and cultural-historical theory. In J. Neuberger & A. Somaini (Eds.), The flying carpet: Studies on Eisenstein and Russian cinema in honor of Naum Kleiman (pp. 421–441). Éditions Mimésis.
  • Vassilieva, J. (2019). The Eisenstein-Vygotsky-Luria collaboration: Triangulation and third culture debates. Projections, 13(1), 23–44. https://doi.org/10.3167/proj.2019.130103
  • Vassilieva, J., & Zavershneva, E. (2020). Vygotsky’s “height psychology”: Reenvisioning general psychology in dialogue with the humanities and the arts. Review of General Psychology, 24(1), 18–30. https://doi.org/10.1177/1089268020902723
  • Veresov, N. (2017). The concept of Perezhivanie in cultural-historical theory: Content and contexts. In M. Fleer, F. G. Rey, & N. Veresov (Eds.), Perezhivanie, emotions and subjectivity (pp. 47–70). Springer Berlin Heidelberg.
  • Vernadsky, V. I. (1944). Problems of biogeochemistry II; The fundamental matter–energy difference between the living and the inert natural bodies of the biosphere. In G. E. Hutchinson (Ed.), Transactions of the connecticut academy of arts and sciences (Vol. 35, pp. 483–517). Connecticut Academy of Arts and Sciences.
  • Vernadsky, V. I. (1945). The biosphere and the noosphere. American Scientist, 33(1), 1–12.
  • Vigotski, L. S. (2022). Cuadernos de notas (K. Zavershneva, R. van der Veer, Eds.; A. A. González, Spanish Ed. & Trans.). Libros del Zorzal (Kindle Edition).
  • von Foerster, H. (Ed.). (1976a). Cybernetics of cybernetics: The control of control and the communication of communication (2nd ed.). Future Systems, Inc.
  • von Foerster, H. (Ed.). (1976b). On constructing a reality. In Cybernetics of cybernetics: The control of control and the communication of communication (2nd ed., pp. 376–382). Future Systems, Inc.
  • von Foerster, H. (1978). Construir la realidad. Infancia y Aprendizaje, 1(1), 79–92. https://doi.org/10.1080/02103702.1978.10821691
  • von Foerster, H. (1995). Ethics and the second-order cybernetics. Stanford Humanities Review, 4(2), 308–319.
  • Vygotski, L. S. (1990a). Obras Escogidas. Vol. I. Problemas teóricos y metodológicos de la Psicología (A. Álvarez & P. del Río, Eds.; J. M. Bravo, Trans.). Visor Distribuciones. [Original Russian version, 1982]
  • Vygotski, L. S. (1990b). Obras escogidas. Vol. II. Problemas de Psicología general (A. Álvarez & P. del Río, Eds.; J. M. Bravo, Trans.). Visor Distribuciones. [Original Russian version, 1982]
  • Vygotski, L. S. (1990c). Pensamiento y lenguaje. In L. S. Vygotski (Ed.) (A. Álvarez & P. del Río, Eds.; J. M. Bravo, Trans.), Obras escogidas. Vol. II. Problemas de Psicología general (pp. 9–348). Visor Distribuciones. [Original Russian version, 1982]
  • Vygotski, L. S. (1990d). Sobre los sistemas psicológicos. In L. S. Vygotski (Ed.) (A. Álvarez & P. del Río, Eds.; J. M. Bravo (Trans.), Obras Escogidas. Vol. I. Problemas teóricos y metodológicos de la Psicología (pp. 71–93). Visor Distribuciones. [Original Russian version, 1982]
  • Vygotski, L. S. (1995a). Historia del desarrollo de las funciones psíquicas superiores, and L. S. Vygotski (Ed.) (A. Álvarez & P. del Río, Eds.; L. Kuper, Trans.), Obras escogidas. Vol. III. Problemas del desarrollo psicológico (pp. 9–340). Visor Distribuciones. [Original Russian version, 1983]
  • Vygotski, L. S. (1995b). Obras escogidas. Vol. III. Problemas del desarrollo psicológico (A. Álvarez & P. del Río, Eds.; L. Kuper, Trans.). Visor Distribuciones. [Original Russian version, 1983]
  • Vygotski, L. S. (1996). Obras Escogidas. Vol. IV. Psicología Infantil (A. Álvarez & P. del Río, Eds.; L. Kuper, Trans.). Visor Distribuciones. [Original Russian version, 1983]
  • Vygotski, L. S. (1997). Obras Escogidas. Vol. V. Fundamentos de defectología (A. Álvarez & P. del Río, Eds.; G. Blank, Trans.). Visor Distribuciones. [Original Russian version, 1983]
  • Vygotski, L. S., & Luria, A. R. (2007). El instrumento y el signo en el desarrollo del niño (P. del Río & A. Álvarez, Eds.). Fundación Infancia y Aprendizaje.
  • Vygotsky, L. S., & Luria, A. R. (1994). Tool and symbol in child development. In R. van der Veer & J. Valsiner (Eds.), The Vygotsky reader (pp. 99–174). Basil Blackwell.
  • Wallon, H. (1934). Les origines du caractère chez l’enfant: Les préludes du sentiment de personnalité. Presses Universitaires de France.
  • Warwick, K. (2004). I, cyborg. University of Illinois Press.
  • Webb, A., & Hessel, A. (2022). The genesis machine: Our quest to rewrite life in the age of synthetic biology. PublicAffairs.
  • Wiener, N. (1948). Cybernetics or control and communication in the animal and the machine. MIT Press.
  • Zavershneva, Е., & van der Veer, R. (Eds.). (2018). Vygotsky’s notebooks. A selection. Springer.
  • Zazzo, R. (2004). El yo social. La psicología de Henri Wallon. Fundación Infancia y Aprendizaje.