Octubre 2024

lunes, 4 de noviembre de 2024

CERCANÍA EN EL LIDERAZGO: LO QUE ES Y LO QUE NO ES

 


Por Victoria Navarro. Directora VN Consultora. Coordinadora académica Liderazgo Emocional Universidad de San Andrés. 

https://www.vnconsultora.com/

Las conversaciones de liderazgo relacionadas con la cercanía y la confianza siempre dan mucha tela para cortar.

Invariablemente aparecen argumentos relacionados con personas que no quieren hablar; que no hay tiempo para eso (esto da para futuro post); que de lo personal hablan entre pares; que no somos tan amigos, etc.

En el fondo, todas esconden la misma razón: no sabemos bien qué hacer para construir cercanía. 

Cercanía NO es:

❌️ pegoteo.

❌️ ser un club social.

❌️ hacer interrogatorios.

❌️ contar mis intimidades.

❌️ presionar para que nos cuenten las suyas.


Cercanía SÍ es:

✅️ interesarse por la vida de los demás, en tanto personas que son.

✅️ estar presente y disponible.

✅️ escuchar cuando te hablan.

✅️ incluir y hacer que se sientan parte.

✅️ conocer a las personas y conectarte de la manera en que cada una necesita.

✅️ contar algo de vos (tremendo abrepuertas para que los demás también lo hagan).

✅️ mostrar tu vulnerabilidad. Tus dudas, tus temores, tus "no sé", acercan infinitamente más que saber todo, poder con todo y no dudar.


La confianza se construye día a día, minuto a minuto, conversación por conversación.

Cuando desarrollás la confianza, todo se hace más fácil: los vínculos y el logro de resultados.


martes, 29 de octubre de 2024

LOS ALGORITMOS, EN LA PICOTA

 


Por José Claudio Escribano. Secretario general de Redacción y subdirector del diario La Nación. Desde 1997 integra el Directorio de S.A. LA NACION. Fue miembro del Directorio de la World Association of Newspapers (WAN) y presidió por varios períodos la Asociación de Entidades Periodísticas Argentinas (ADEPA) y su Comisión de Libertad de Prensa. Recibió numerosas distinciones  y ha sido condecorado por los gobiernos de Italia, España y Francia, que le confirió la Legión de Honor.

Estamos ante un nuevo punto de inflexión de la historia. Lo magnifica el debate de si controlaremos de algún modo o no las acciones de la inteligencia artificial que generen amenazas para el destino de la humanidad. Está fuera de la discusión, desde luego, el reconocimiento por los logros, tan evidentes como extraordinarios, obtenidos en las más diversas disciplinas del conocimiento. El hombre ha sido hasta aquí determinante en esas conquistas.

Ha hecho maravillas. Desde las comunicaciones a la medicina, desde la educación y las investigaciones espaciales a las relaciones laborales, a la recreación, la energía y la logística, las artes, los transportes, las actividades industriales, comerciales y agrícolas. La tecnología fundada en la información acumulativa de bases enormes de datos lo ha transformado todo y su proyección en el tiempo plantea cuestiones hasta sobre la suerte que podrían correr las instituciones de nuestra cultura y la democracia como sistema de gobierno.

No es necesario ir tan lejos ni agarrar por el cuello a los programadores de algoritmos para automóviles sin conductor en el afán de que suelten si habían tenido en cuenta algunas cosas simples como las comenta Frank Pascuale, profesor de Derecho en la Universidad de Cornell: en adelante, los terroristas no tendrán que reclutar suicidas con bombas si ya pueden cargar explosivos en vehículos de conducción automatizada.

Hay miles de preguntas parecidas en esa categoría de las paradojas del progreso, pero lo central seguirá siendo si dejaremos que los grandes actores de naturaleza inorgánica invadan la sacralidad humana sin oponerles normas éticas y legales. Cuando en 2022 Elon Musk y Sam Altman lanzaron al mercado, a través de Open AI al ChatGPT, expertos en computación dijeron que se había abierto una caja de Pandora y junto con ellos llamaron a una frágil moratoria de seis meses sobre la nueva joya digital.

John Hopfield, de Princeton, y Geoffrey Hinton, de la Universidad de Toronto, obtuvieron el martes último el Premio Nobel de Física por sus contribuciones al desarrollo de la inteligencia artificial, pero expresaron temores por la posibilidad de que se salga del control humano e instaron a utilizarla de manera segura y ética.

Líderes mundiales como Henry Kissinger, en el libro de despedida del año último antes de su muerte a los 98 años, que escribió con un exdirector ejecutivo de Google y un científico computacional del Instituto Tecnológico de Massachussets, dejaron constancia de su zozobra por la eventualidad de un mundo cruzado de brazos frente a los riesgos existentes.

Hace dos semanas hubo un gran hecho promisorio, que define la temperatura creciente por el tema. Entre las 56 acciones contempladas por la asamblea general de las Naciones Unidas, en su consenso sobre un Pacto para el Futuro, se instó a la cooperación internacional para establecer reglas en el uso de la Inteligencia Artificial. La Argentina se excluyó del compromiso en contradicción con la propaganda de que está abierta al mundo.

Uno de los capítulos más dramáticos en debate es si las máquinas digitales podrían establecer por sí mismas objetivos propios. Hay quienes dicen que sí; otros, dicen que no. Que las máquinas carecen por principio de conciencia y que no podrían simularla. Resolví tomar el tema en mis manos y preguntar al ChatGPT:

-Hablemos en serio. ¿Eres capaz de distinguir el bien del mal? -Tardó un segundo en contestar:

-No, no tengo conciencia ni capacidad para dudar entre el bien y mal como lo haría un ser humano. Soy una inteligencia artificial diseñada para procesar y generar información basada en patrones y algoritmos.

Volví a la carga: ¿Imaginas el día en que tengas conciencia y objetivos propios? -Contestó:

-Es una pregunta interesante y exploraría la idea de lo que significa contar con esos atributos -dijo en el estilo elusivo que lo caracteriza en esos asuntos.

En la misma línea precavida de Kissinger se pronunció en la reunión del G7 el papa Bergoglio en uno de sus mensajes menos polémicos del año. Armen Avanessian, filósofo austríaco, que escribió “Meta-Futuros. Perspectiva para el mundo que viene”, dice que el mundo se nos aparece como un código secreto en manos de unos pocos monopolios que gozan de una soberanía interpretativa solo quebrantada por herejes chamánicos, los malditos hackers. Eso explica un fallo de 2022 de la Corte Suprema de Justicia de la Argentina, sugiriendo que es hora de descorrer el velo de la “opacidad” algorítmica.

Las miradas se dirigen a quienes comandan este mundo tecnológico. A fines de agosto último, la capitalización total de Microsoft, Apple, Nvidia, Alphabet (Google) y Amazon, las cinco más grandes tecnológicas, era de 12,8 billones de dólares. Para que se entienda mejor: unas veinte veces el PBI de la Argentina. Algunos de esos colosos mantienen abiertas, más allá de acuerdos precarios que se renuevan periódicamente, disputas por el usufructo de la propiedad intelectual de los contenidos de medios periodísticos. Estos vociferan, en defensa de sus derechos intelectuales, que se acabe el almuerzo gratis y las redes y buscadores acaten tres reglas de oro: consentimiento, retribución y atribución.

Hace 75 años, Alan Turing, precursor de la informática, se preguntaba por las condiciones que debería revestir una máquina para considerarla provista de inteligencia artificial. Turing dijo que eso sucedería cuando tuviera destellos de comportamiento autónomo y resultara problemático distinguir entre la palabra humana y la de una máquina. Y bien, habilitadas por masas monumentales de datos, las deepfakes reconstruyen hoy no solo nuestra voz; también nuestra imagen.

El momento anticipado por Turing llegó hace años. Sus consecuencias se expandieron entre estallidos de admiración, estupor e inquietud en paulatino aumento. Algunos de los instrumentos de aplicación digital están hoy en manos de 4.500 millones de hombres y mujeres; o sea, en más de media humanidad.

El ritmo de esta revolución podría acelerarse, en palabras de Bergoglio, “con la introducción de los ordenadores cuánticos que no operan con circuitos binarios (semiconductores o microchips), sino según las leyes, bastante articuladas, de la física cuántica”. Expertos en esta ardua disciplina dicen que los procesadores de esa naturaleza requerirían para funcionar de temperaturas bajo cero de unos 270 grados y que eso sujetará al genio dentro de la lámpara por largo tiempo.

Ya había suficientes motivos para reflexionar sobre el futuro de la humanidad desde que empezamos a desafiar el equilibrio del ecosistema terrenal y las leyes del orden climático. Desde esa perspectiva nos hemos ganado, junto con nuestros más desprevenidos ancestros de la Revolución Industrial, el reproche de haber inaugurado una era devastadora no obstante el desarrollo obtenido en tantos otros órdenes.

Definimos a la nueva hora -la hora del antropoceno-, en términos geológicos, por el impacto del hombre sobre la naturaleza y, en términos sociológicos, por el desdén en aniquilar cuantiosos bienes de la flora, la fauna, los suelos y los mares, y por los efectos que esta depredación inferirá, de no detenerse, en la salud física y espiritual de futuras generaciones. Vuelan por arriba de ese piso las preguntas sobre la relación entre tecnología e identidad humana. Y hasta hay quienes con lucidez hablan de la Fe de la Edad Media y de la Razón iluminista que precedió a la Revolución Francesa, en referencia a la fuerza que terminaría impulsando, en defecto de aquellas otras, la historia en un mundo regido por máquinas digitales y no por hombres que empiezan por perder habilidades al ser sustituidos por la tecnología.

De modo que si se produjera una fatalidad de dimensiones bíblicas nadie podrá decir que faltaron los llamados de atención de que los instrumentos tecnológicos debían ser aplicados para beneficio de la humanidad y no para rebajarla en su dignidad o provocar su extinción. ¿Qué representaría, si no, el cumplimiento profético del tantas veces citado Marvin Minsky, profesor del Instituto Tecnológico de Massachussets y uno de los padres de la IA, fallecido hace años, de que en 2034 las máquinas tomarían conciencia de sí mismas y del control del mundo?

Karl Popper, en La miseria del historicismo, dice que por razones estrictamente lógicas no es posible predecir el futuro. Que el curso de la historia está fuertemente influido por los nuevos conocimientos y que precisamente por eso no podemos anticipar hoy lo que solo sabremos mañana. En ciencia política estamos en demasía escarmentados por el fracaso profético, según comprobamos a diario y, sobre todo, cuando compartimos foros con gobernantes y politólogos.

¿Cómo encontrar el punto medio que conjure, en una alianza de la ética y la política, que la máquina actúe como instrumento de aprendizaje autónomo en guerras y, al mismo tiempo, se evite malograr otros logros benéficos para la humanidad? ¿Dónde hallar la sabiduría que nos sustraiga de la tecnofobia paleolítica que paraliza, pero también de la osadía de encarnar una desmedida tecnofilia? En esa espinosa reflexión es imposible olvidar a Popper: la ciencia está, por principio, urgida en acuciar la competencia entre las hipótesis y el rigor experimental.

En el mensaje ante el G7, Bergolio discrepó de la creencia en que las observaciones obtenidas de un mecanismo de cálculo como los logaritmos estén dotadas de certeza y universalidad irrefutables. En términos más rudimentarios de los que podrían firmar los doctos académicos pontificios supuestamente consultados por el Papa, un algoritmo es un conjunto finito de operaciones matemáticas realizadas dentro de un cierto orden con el propósito de llegar a un resultado.

Bergloglio bajó a tierra un caso concreto de preocupación. Fue cuando apuntó a los programas de inteligencia artificial generativa utilizados a fin de asistir a magistrados judiciales en el otorgamiento de prisión domiciliaria a presos carcelarios. Observó que la IA está preparada para atender, a requerimiento judicial, la posibilidad de reincidencia en el delito cometido según categorías prefijadas: comportamiento en prisión, evaluación psicoanalítica, y demás. El algoritmo se nutre también de otros datos en ese tipo de temas: origen étnico, nivel educativo, capacidad, etcétera, del procesado o condenado.

El Papa se preguntó cómo sabemos si esas categorías de evaluación están descontaminadas de prejuicios. ¿Cómo podría la máquina apreciar el dato crucial de que el hombre es un ser en permanente evolución, precisamente porque es un ser inacabado, y cómo registraría las variaciones en la sensibilidad humana? Es una apreciación compartida por líderes religiosos de diversos credos: cristianos, judíos, musulmanes, budistas, y hasta los zoroastristas, según se comprobó en reuniones mundiales.

Después del revés de Francis Fukuyama de hablar, tal vez por apresuramiento intelectual, del fin de la historia a raíz de la implosión del imperio soviético y de la quimera totalitaria de insuflar vida a “un hombre nuevo”, nadie ha vuelto a una definición tan castigada. Se han usado otras caracterizaciones para el supuesto de una inteligencia artificial descontrolada.

En los noventa, Katherine Hayles, catedrática de la Universidad de California que había abandonado la química en favor de la crítica literaria, se atrevió a imaginar la era del poshumanismo. Concibió un mundo en el que no habría lugar para la noción de un homo sapiens diferenciado de la simulación artificial de las computadoras.

Las letras y el cine de ciencia ficción han explorado esa visión en obras como Terminator y Robots Asesinos. Hayles, citada por Avanessian, mostró el abismo: “Nos aterroriza la posibilidad de que una inteligencia superior a la nuestra pudiera ser menos natural o más hostil a la naturaleza que nosotros y nos tratase como seres inferiores, incluso peor de lo que hemos tratado a otras criaturas”. Los más optimistas, como el ex ingeniero de Google Raymond Kurzweil, autor de La singularidad está cerca, han predicho que por desarrollos de la nanotecnología y la robótica podríamos en menos de una década desafiar la mortalidad, causa del pánico más o menos introvertido en que se aúnan en última instancia las angustias humanas. Cifras oficiales indican que en la Argentina hay 15.400 centenarios, número impensable hace cuarenta años.

Julián Gallo, académico cuyo prestigio en análisis y edición de textos periodísticos se expresa en la plataforma Ualter.AI, giró hace poco el asiento sobre el que trabajaba ante una computadora en Buenos Aires y dirigió la vista hacia atrás, en dirección de su biblioteca. Observó uno de los anaqueles y, apelando en su celular a una de las aplicaciones de ChatGPT -ahora con modalidades para ver, oír y hablar que duplican en meses su capacidad-, tomó una foto y escribió: “Uno de estos libros habla de las jaulas mentales, ¿cuál puede ser?”.

La aplicación contestó: “El libro Cultos: El lenguaje del fanatismo, de Amanda Montelli, que aparece en tu estante, podría ser el que habla de “jaulas mentales”. Este libro -prosiguió la aplicación-explora cómo el lenguaje se utiliza en movimientos de fanatismo para moldear y controlar la mente de las personas, lo cual se relaciona con la idea de “jaulas mentales”. Esos alardes de precisión asombran a quienes a menudo no encontramos un libro que está en algún lugar de la biblioteca hogareña. ChatGPT se permitió, como última deferencia a Julián, un juicio literario: “Si buscas explorar cómo el lenguaje o ciertas ideologías pueden encerrar a las personas en “jaulas mentales”, este libro sería una buena elección”.

En la Argentina, el equipo LA NACION Data, en coordinación con los de Narrativas Digitales de la Redacción, se ha constituido en referente en el uso de la IA en contenidos periodísticos. La aplicó para comparar en YouTube, en imágenes y palabras, las emociones de los candidatos presidenciales en debates realizados en la Argentina y los Estados Unidos, y para dotar de voz a una carta de treinta y tres páginas que la expresidenta Cristina Kirchner había escrito en duros términos al presidente Javier Milei.

En la cartera de clientes de José Gelmini, porteño, coach en aprendizaje computacional, prevalecen más los veteranos que se esfuerzan por no perder el tren de las novedades tecnológicas, que los integrantes de la generación Z, hiperconectados a dispositivos electrónicos, pero de pobre sociabilidad hasta en las mesas navideñas. Gelmini dice que los clientes empiezan a confesar preocupación por el horizonte de la inteligencia artificial. No los tranquilizará con un comentario del pensador israelí Yubal Noah Harari, en su flamante Nexus. Breve historia de las redes de información desde la Edad de Piedra hasta la IA (Ed. Penguin): “Si los ordenadores siguen adquiriendo inteligencia -escribió Harari- podrán desarrollar conciencia y ensayar algún tipo de experiencia subjetiva”.

En esa posibilidad se adentró el novelista inglés Ian McEwan, en Máquinas como yo (2019), examinada por el profesor Pascuale en Las nuevas leyes de la robótica. Charlie, personaje de la penúltima novela de McEwan, compra un robot a fin de matar su aburrimiento, no para que el robot se acostara con Miranda, su vecina. McEwan corrió de ese modo, valiéndose de un conflicto sentimental, el eje del debate en que se trenzan hoy politólogos, científicos y filósofos especulativos. No tanto porque haya llevado el debate a la cama, sino porque lo devolvió a una de las viejas encrucijadas de la humanidad. Con aprobación de Pascuale y no poco cinismo, lo señaló así un perspicaz crítico inglés: “La cuestión de la personalidad de los robots es, en última instancia, un tema de poder, no de reconocimiento de la esencia humana en la IA”.

Las instituciones avanzan con velocidad de tortugas en relación con el vértigo de la creatividad tecnológica. La ley federal de Telecomunicaciones de los Estados Unidos, de fines del siglo XX, todavía exime a los grandes buscadores de cualquier responsabilidad por contenidos publicados por los usuarios, algo que no ocurre con la prensa tradicional. Con olvido de que el lenguaje es clave en los ordenadores, se embreta aun con pereza dentro de la ley la difusión de las fake news y prosperan todavía por las redes mundiales los intereses del narcoterrorismo y las finanzas al margen de la legalidad. O el juego por dinero que hace estragos en el comportamiento y salud de adolescentes, atrapados como zombis en los casinos virtuales.

Byung- Chul Han, filósofo coreano con una vida universitaria en Alemania, acuñó la definición de infodemocracia. Lo hizo por oposición a la democracia fundada en la voluntad popular. Hay poco para celebrar en el sistema infocrático descripto por Han. A diferencia de la estructura anfiteatral de los medios de comunicación de masas, los medios digitales se caracterizan, dice Han, por una estructura rizomática: redes que carecen de un centro. Podría haber dicho que carecen también de identidad y dirección, base de la confiabilidad en el periodismo de calidad desde hace tres siglos.

En el caldo de cultivo de las redes ha prosperado una cultura de agresión verbal feroz, contaminante de otros circuitos de la vida social moderna. En ese conventillo digitalizado, en el que el presidente Milei es quien grita más fuerte en el patio, conviven voces anónimas, voces fanatizadas y voces rentadas para expresarse impunemente; cuentas falsas automatizadas conocidas como bots, y hasta la palabra y los likes de líderes políticos. Nada de esto debe llevarnos a prescindir de que el hartazgo de las sociedades con los viejos moldes de la política, ineficientes y corruptos, se ha hecho sentir como reacción en el lenguaje inaudito que abunda en las redes sociales.

Han observa que en la infocracia ha habido un cambio de paradigmas. Habríamos pasado de la sociedad del espectáculo a la sociedad de la vigilancia. Más que en los gobernantes, ha dicho con acierto, en la infocracia la visibilidad recae sobre los gobernados. Dice Han, como pudo haber dicho Orwell en sus parábolas de los años cuarenta: “Si hasta el robot aspirador inteligente, que nos ahorra la tediosa limpieza, cartografía toda la vivienda”. El derecho a la intimidad es socavado a todo instante por quienes usan nuestros datos al mejor postor o como modelos en el entrenamiento de textos para máquinas digitales. No es una figura retórica hablar, como en los escándalos de la desaparecida Cambridge Analytica, de minería de datos.

Las empresas que orbitan en el mundo digital son profusas en el consumo de minerales: silicio o litio ionizado; energía, agua. El caso de las criptomonedas plantea por su magnitud cuestiones de gravedad estratégica para los Estados. Según un informe de la Universidad de Cambridge, Bitcoin devora alrededor de 121,2 teravatios-hora (TWh) al año, algo más de lo que consumen la Argentina, Noruega y los Países Bajos. La IA devora por igual un caudal monstruoso de energía.

Ha sido una constante histórica la controversia entre actores de las sucesivas etapas de la comunicación y la información. En La guerra de las plataformas, Carlos A. Scolari, catedrático en la Universidad de Pompeu Fabra de Comunicación Digital Interactiva, dice que después de Gutenberg hubo copistas que protestaron por la imprenta. Cita a Elisabeth Eisenstein, historiadora norteamericana que estudió la transición entre el manuscrito y las ediciones masivas. Eisenstein recreó el momento en que el benedictino Filippo di Strata imploró al doge de Venecia que castigara a los tipógrafos que imprimían a un costo insignificante “material que puede, por desgracia, enardecer a jóvenes impresionables”.

Poca cosa, en el fondo, comparada con los pleitos que se plantean con los ordenadores, Internet, las grandes empresas tecnológicas, las redes y, por si fuera poco, los robots y la inteligencia artificial generativa. Sabemos que ninguna es necesariamente buena ni mala: serán lo que el hombre, si se detiene a pensar a tiempo en su destino, quiera que sean.

(*) Palabras del autor en el encuentro en Madrid de esta semana de las academias nacionales de Ciencias Morales y Políticas de España y la Argentina. 

Publicado en el diario La Nación el 12 de octubre 2024.



viernes, 18 de octubre de 2024

NUESTRO TIEMPO PARA UN LIDERAZGO ATEMPORAL Our Time for Timeless Leadership

 

Por Gary Burnison, Chief Executive Officer, Korn Ferry

Cuando era niño y vivía en el Medio Oeste, las temperaturas más bajas y la caída de las hojas indicaban toda una serie de rutinas. El primer fin de semana de octubre, como un reloj, revisábamos la calefacción, cambiábamos los neumáticos del coche y rastrillamos el jardín hasta dejarlo cubierto de montañas interminables de amarillo, dorado y rojo.

El calendario marcaba la hora y sabíamos exactamente qué hacer.

Hoy, cuando el otoño se instala en el hemisferio norte y el año llega a su último trimestre, el cambio parece ser una constante.

Como lo demuestra la investigación de nuestra firma, la capacidad de responder eficazmente al cambio es uno de los mayores diferenciadores organizacionales, que separa a los mejores del resto.

Como líderes, tenemos que actuar: saber qué hacer, incluso cuando no sabemos qué hacer.

No podemos permitirnos el lujo de esperar a que las circunstancias cambien o las circunstancias nos cambiarán a nosotros. Este es el momento de un liderazgo atemporal.

Anticipar lo que está por venir. No necesitamos ser visionarios, ni intentar predecir el mañana. Más bien, necesitamos percibir con precisión la realidad de hoy. Este momento es el punto de partida para crear una visión del futuro que otros aún no pueden ver.

Navegar: corregir el rumbo en tiempo real.  La navegación es el complemento de la anticipación. Juntos, pueden mantenernos en equilibrio. La navegación se realiza en el momento presente, con agilidad y ajustes en tiempo real. Es proactiva y tiene un propósito.

Comunicarse continuamente. En esto consiste el liderazgo. Como líderes, somos a la vez el mensaje y el mensajero. Y cuando hay confianza en lo que decimos, habrá fe en lo que hacemos.

Escuchemos lo que no queremos oír. Se nos han dado dos oídos y una sola boca por una razón: un recordatorio de que debemos escuchar el doble de lo que hablamos.

Aprende siempre. No hay nada como el cambio para acelerar el aprendizaje. Es cuando aplicamos experiencias pasadas a desafíos nuevos y que se presentan por primera vez. Se llama agilidad de aprendizaje.

Liderar: inspirar a otros a creer y luego permitir que esa creencia se convierta en realidad.

Ninguno de nosotros puede elegir los tiempos en los que va a liderar. Como me dijo hace poco el director ejecutivo de un importante sistema de salud: “Hace décadas me di cuenta de que es en la ambigüedad (la incertidumbre, la crisis, el riesgo) donde existe la oportunidad y el control es una ilusión”.

Pero el liderazgo no lo es y eso es lo que todos necesitamos ahora mismo. 

 

Publicado por Korn Ferry Insights

jueves, 17 de octubre de 2024

INTELIGENCIA EMOCIONAL: EL PILAR ESTRATÉGICO DEL LIDERAZGO EN TIEMPOS DE CRISIS

 


Por Fabian Girart, Fundador de Girart Coaching & Consulting.

En el contexto actual, donde nos enfrentamos a desafíos constantes y crisis inesperadas, el liderazgo emocionalmente inteligente se ha convertido en una herramienta indispensable. Pero, ¿Qué es exactamente la inteligencia emocional y cómo puede aplicarse eficazmente en un entorno de trabajo bajo presión?

La inteligencia emocional es la capacidad de identificar, comprender y gestionar tanto las emociones propias como las de los demás. Esta habilidad no solo fortalece la capacidad de tomar decisiones acertadas, sino que también potencia la eficacia de las acciones y contribuye a crear ambientes laborales más productivos y empáticos. En tiempos de crisis, los líderes que dominan estas habilidades pueden influir positivamente en sus equipos, motivándolos y guiándolos con claridad y empatía.

Algunas Estrategias Clave para Liderar con Inteligencia Emocional

Basadas en entrevistas con líderes de alto rendimiento y estudios recientes, se han identificado estrategias fundamentales para gestionar las emociones durante situaciones críticas:

  1. Monitorizar el clima emocional: Un líder debe estar atento a las señales emocionales del entorno laboral. Mi jefe me decía ¿Cómo esta la temperatura Fabian?” El tener el termómetro del clima de nuestro equipo nos permite detectar problemas como el desánimo o la inconformidad a tiempo permite prevenir conflictos y fortalecer la moral del equipo. Un ambiente positivo fomenta la confianza y mejora la respuesta ante desafíos.
  2. Expresar emociones y compartir sentimientos para motivar a los demás: Compartir emociones genuinas, ya sea tristeza en momentos difíciles o entusiasmo ante una oportunidad, crea un vínculo emocional más fuerte con los colaboradores. El compartir los sentimientos, quizás es algo más complejo, pero genera un increíble y virtuoso circulo de confianza.
  3. Introspección sobre el impacto de mi conducta en los demás: Las emociones de un líder influyen directamente en el equipo. Una actitud positiva genera un ambiente de trabajo más dinámico y colaborativo. Pequeños gestos, como el reconocimiento o el simple hecho de saludar, pueden tener un gran impacto.
  4. Ponerse en el lugar de los demás: La empatía es una habilidad esencial para los líderes. Comprender las experiencias y emociones de los demás fomenta una mejor toma de decisiones y mejora las relaciones interpersonales.
  5. Descifrar las dinámicas emocionales subyacentes: Suena algo complejo , pero no es más que analizar que detrás de cada situación crítica, existe una dimensión emocional que debe ser identificada. Los líderes emocionalmente inteligentes saben cómo descubrir las tensiones emocionales para resolver conflictos de manera más eficaz.
  6. Reformular la situación: Cambiar la perspectiva ante un problema puede ayudar a reducir el estrés y transformar un desafío en una oportunidad. Esto no solo mejora la adaptación al cambio, sino que también fomenta un ambiente más resiliente.
  7. Establecer límites interpersonales óptimos: Un liderazgo emocionalmente inteligente implica manejar adecuadamente los límites emocionales. En coaching lo menciono como parte de “los innegociables” Saber cuándo distanciarse emocionalmente y cuándo estrechar lazos es clave para mantener el equilibrio y la efectividad en las relaciones laborales.
  8. Buscar apoyo para gestionar emociones: Ningún líder está solo. Reconocer cuándo se necesita apoyo y buscarlo activamente es una estrategia fundamental. Antes era quizás un síntoma de debilidad, hoy es una fortaleza. Los líderes efectivos recurren a redes de confianza tanto dentro como fuera de la organización para gestionar mejor sus propias emociones.
  9. Ayudar a los demás a desarrollar su inteligencia emocional: Los líderes no solo deben ser maestros de sus propias emociones, sino también guiar a sus equipos en el desarrollo de estas habilidades. La inteligencia emocional puede ser entrenada y mejorada, y los líderes tienen una posición privilegiada para facilitar este crecimiento en sus colaboradores.

Conclusión

La inteligencia emocional no es un lujo opcional para los líderes en tiempos de crisis y cuando estas no están, también; es sin duda, una necesidad estratégica. Aquellos que cultivan estas habilidades y aplican las estrategias adecuadas no solo navegan mejor por las tormentas organizacionales, sino que también inspiran a sus equipos a hacer lo mismo. Un liderazgo basado en la empatía, la autoconciencia y la gestión emocional es un liderazgo preparado para cualquier desafío.

¿Cuáles son los beneficios que crees que podés tener aplicando estas estrategias?



Puedes contactar a Fabián en fabian@girartcyc.com o agenda una rápida reunión para hablar de como implementarlas en tu organización. https://calendly.com/fabian-80/30min

lunes, 14 de octubre de 2024

HEADHUNTING EN LA ERA DE LA INCERTIDUMBRE

 


Por Guillermo Ceballos Serra

En los últimos años, las siglas que describen la realidad empresarial se han multiplicado: VUCA (Volatility, Uncertainty, Complexity, Ambiguity) fue solo el comienzo. Hoy, también nos encontramos en contextos BANI (Brittle, Anxious, Nonlinear, Incomprehensible) y RUPT (RapidUnpredictable, Paradoxical y Tangled). Cada uno de estos marcos intenta captar la esencia de un mundo cada vez más impredecible, pero en todos subyace una constante: el cambio.

Para los líderes de talento, este contexto desafiante no solo exige adaptabilidad personal, sino también la capacidad de preparar a sus organizaciones para lo inesperado. El papel de los headhunters se vuelve crítico, ya que los profesionales que se seleccionan hoy necesitan algo más que experiencia técnica: deben ser maestros de la resiliencia, capaces de navegar la incertidumbre con creatividad y calma.

De VUCA a BANI: Nuevas Demandas, Nuevas Habilidades

El cambio en un entorno VUCA requería agilidad, pensamiento estratégico y una fuerte capacidad de comunicación. Sin embargo, en un contexto BANI, donde la fragilidad y la ansiedad predominan, se requieren líderes con inteligencia emocional avanzada, capaces de gestionar equipos desorientados o estresados por la inestabilidad. La no linealidad del cambio exige además habilidades que vayan más allá de la planificación tradicional: los líderes deben abrazar la improvisación, apoyados en datos y una cultura organizacional que premie la flexibilidad y el aprendizaje constante.

Head-hunting hoy

La selección de talento en estos escenarios exige también un enfoque disruptivo. Ya no se trata solo de encontrar profesionales con un perfil tradicional de liderazgo, sino de identificar personas que prosperen en el caos y sepan liderar a través de la ambigüedad. Aquí, los programas de desarrollo de talento y las herramientas de evaluación avanzadas resultan clave para predecir comportamientos adaptativos.

Además, los headhunters deben estar atentos a cómo los cambios sociales y tecnológicos afectan el panorama laboral, buscando profesionales que puedan liderar transformaciones culturales profundas y abrazar la diversidad, no solo en términos demográficos, sino también en formas de pensar y actuar.

¿Entonces?

Frente a la ruptura constante que los modelos VUCA, BANI y RUPT nos presentan, la clave no está en resistir al cambio, sino en gestionarlo con visión y pragmatismo. Los headhunters juegan un rol esencial en esta ecuación, ayudando a las empresas a identificar líderes que no solo puedan sobrevivir en la tormenta, sino que sepan convertirla en una oportunidad de transformación y crecimiento.

martes, 8 de octubre de 2024

REGULACIÓN DE LA INTELIGENCIA ARTIFICIAL: NI INGENUIDAD NI PARANOIA

 


Por Matías Nahon. Managing Director Analitix.

La Inteligencia Artificial (IA) está en el centro del debate durante 2024 por su potencial como agente transformador de la economía y por los límites necesarios que implica su desarrollo.

El escritor Yuval Noah Harari plantea en su nuevo libro "Nexus" que la IA es una amenaza invisible y hay que regularla. Para llegar a semejante afirmación hace un largo desarrollo donde refuerza el carácter peligroso de las IA sin control dado que se encuentran a disposición del potencial uso de los gobiernos totalitarios.

Para contrarrestar esta tendencia apela a la conciencia y a una valoración de la verdad que imponga mecanismos de autocontrol, aunque no identifica ninguno concreto.

Harari tiene una visión que agudiza una lectura amenazante de los nuevos desarrollos tecnológicos, cercana a las teorías paranoicas de la ciencia ficción, aunque tiene la ventaja de contrarrestar las lecturas más ingenuas de muchos economistas que apuestan, sin más, al desarrollo tecnológico, sin contemplar sus potenciales riesgos ni consecuencias del uso indiscriminado de sus funcionalidades.

Lo cierto es que cada día cientos de IAs desarrollan nuevos progresos, como las imágenes de Fluxpro.art con un realismo imposible de diferenciar de una foto real, o Vive.art que transforma una foto en video con los gestos de otra persona.

También Filmora puede clonar la propia voz o la de terceros. Y así a cada hora, todos los días. Cada nuevo desarrollo con IA está comenzando a plantear riesgos reales en la información privada y el prestigio al ser usada con intenciones dañinas.

Las empresas están preocupadas porque los ataques están comenzando a ser ciertos, y puedo ponerme como ejemplo. Aunque en Argentina todo llega con cierto delay, ya tengo casos concretos de ataques al prestigio de marcas y personas quienes han utilizado IA sin medir las consecuencias.

Por eso es que debemos estar atentos e impulsar activamente una regulación clara y transparente de la IA que no impida la fuerza de su capacidad innovadora, pero que contenga sus riesgos.

Para eso podemos basarnos en las normas ya existentes en el mundo, como la SB1047 de California y en el reglamento de la UE 2024/1689 formulado este año, más concretamente el 23 de junio.

La subsecretaría de Tecnologías de la información de Argentina también emitió un conjunto de recomendaciones en 2023 que debería actualizarse y hacerse más exhaustivo, ya que constituye una excelente base para comenzar.

Solamente hay que estar atentos a los nuevos desarrollos y regulaciones a nivel mundial que señalan el camino. No son necesarias teorías paranoicas o ingenuas respecto a las dificultades que nos trae esta nueva realidad, sólo hay que ponerle cabeza y trabajo para avanzar en un desarrollo tecnológico que brinde mejores herramientas de mayor productividad, y al mismo tiempo garanticen los derechos.

Harari es también conocido como integrante de la corriente de los "tecno pesimistas" y tiene una mirada reflexiva sobre el potencial totalitario en la IA.

Dice que nunca antes hemos visto algo similar en la historia dado que la IA y su integración en los dispositivos, tanto personales como del hogar, urbanos o vehículos, podría derivar en el desarrollo de una capacidad de vigilancia sin precedentes donde sería posible la creación de regímenes de vigilancia total que aniquilarían la privacidad.

Países enteros de IA, donde no se necesitarían agentes humanos para seguir a todos los humanos.

De todos modos, más allá de las teorías tanto negativas como favorables al desarrollo de la IA, la realidad concreta nos enfrenta al desafío y hay que responderle. Es importante que podamos acordar una regulación de la Inteligencia Artificial teniendo en cuenta la realidad y asumir la responsabilidad que nos toca.

No se trata de ingenuidad ni de paranoia sino de límites claros para una sana coexistencia con lo humano y poder avanzar en lograr herramientas que hagan mejor nuestras vidas.


Publicado en IProUp el 8 de octubre de 2024.

viernes, 27 de septiembre de 2024

INTELIGENCIA DE FUTUROS



 



















Por Jeroen Kraaijenbrink.  Educador, mentor y consultor de estrategia y liderazgo| Top 20 LinkedIn Creator and Thought Leader. Paises Bajos. www.jeroenkraaijenbrink.com

¿Y si pudiéramos prever el futuro? ¿No es eso algo que todos deseamos de vez en cuando? Pero ¿qué significa esto en realidad? Estos cuatro tipos de inteligencia del futuro te ayudan a entenderlo.

Intuitivamente sentimos que hay una diferencia entre soñar despierto y esbozar futuros plausibles o probables. Para entender la diferencia es útil saber que hay cuatro tipos de inteligencia del futuro.

Hay dos dimensiones clave que tener en cuenta. La primera es la importancia del conocimiento histórico. Para cualquier predicción futura, los únicos datos que tenemos disponibles son los datos sobre el pasado, o en el mejor de los casos, el presente. Todo lo demás es una extrapolación de esos datos. Es fácil ver que en la fantasía pura, este conocimiento histórico apenas juega un papel, mientras que para hacer predicciones precisas, es esencial.

La segunda dimensión es la objetividad del conocimiento del futuro. Por un lado, tenemos la subjetividad pura, como la opinión y la percepción personal. En el otro extremo del espectro, tenemos el conocimiento validado científicamente, que generalmente consideramos verdadero hasta que se descubren nuevos hechos.

En estas dos dimensiones, podemos diferenciar cuatro tipos diferentes de inteligencia de futuros:

COMODÍNES Y CIENCIA FICCIÓN

Se centra en futuros posibles creados por la imaginación libre. Las formas clave de conocimiento de futuros en ella son los comodines, los cisnes negros y la ciencia ficción. La ciencia ficción puede ser completamente ficticia, lo que significa que no hay vínculos con las realidades conocidas. Sin embargo, sigue teniendo un papel vital en la alimentación de nuestros procesos visionarios con descripciones innovadoras.

DISCONTINUIDADES, PROBLEMAS EMERGENTES Y SEÑALES DÉBILES

Estar atento a los cambios en el entorno. El principal interés está en las discontinuidades, los problemas emergentes y las señales débiles de cambio. En el contexto de la previsión, esto suele llamarse exploración del horizonte, que también es la primera etapa de un proceso de previsión más amplio.

ESCENARIOS

Obtener una comprensión de las alternativas plausibles y viables dentro del tema en el que uno se centra o en el que está interesado. Este tipo de inteligencia de futuros se obtiene más comúnmente mediante el uso de métodos de producción de escenarios.

MEGATENDENCIAS, TENDENCIAS E IMPULSORES DE CAMBIO

Ayuda a obtener una comprensión del panorama general y de las dependencias de trayectorias relacionadas con el tema que nos interesa. Comprende principalmente megatendencias, tendencias e impulsores de cambio, que suelen ser cuantificables.

El punto no es que los tipos de inteligencia más objetivos y más probados sean mejores. Todos tienen su propósito en la inteligencia de futuros y es posible que necesite los cuatro para prepararse para el futuro.


Copywrite: imagen y descripciones adaptadas de FuturesPlatform. 

Publicado el 27/9/2024 en LinkedIn 

Traduccion: Guillermo Ceballos Serra