macOS 14.5 est disponible en version finale

Florian Innocente |

macOS 14.5 est disponible en téléchargement pour tout le monde. Cette révision n'apporte que des corrections de bugs qu'Apple n'a pas détaillées. Les utilisateurs d'Apple News+ — ce service payant de kiosque à journaux qui n'est pas disponible en France — ont droit à un nouveau jeu de lettres et à un tableau de scores.

macOS Sonoma. Image Apple.

Lire les commentaires →

Classic Marathon : le FPS culte de Bungie disponible gratuitement sur Steam

Stéphane Moussie |

Les amateurs de vieux FPS — pour ne pas dire les vieux amateurs de FPS — vont être aux anges en apprenant que Marathon déboule sur Steam. Jeu culte des années 1990 qui a fait ses débuts sur Mac, le FPS futuriste est désormais accessible facilement et gratuitement sur la boutique de Valve.

Classic Marathon tourne très bien sur un MacBook Air M1. Image MacGeneration.

Classic Marathon nous (re)plonge dans un vaisseau spatial où il va falloir zigouiller des aliens pour rester en vie. Le jeu est fidèle à l’original, avec juste quelques options de confort en plus (HUD adapté pour les écrans ultra-large, 60 i/s avec interpolation, audio 3D…). Cette version est basée sur Aleph One, un moteur open source maintenu par des fans. Pas besoin d’avoir une machine de guerre pour faire tourner correctement le jeu, un Mac Apple Silicon ou Intel avec 4 Go de mémoire et 100 Mo de stockage suffit.

Marathon avait servi pour Apple de réponse au carton de Doom sur PC, arrivé un an plus tôt. Le titre de Bungie s'était démarqué par son scénario élaboré et par ses nouvelles mécaniques devenues depuis incontournables (rechargement des armes, armes à double maniement…). Classic Marathon 2 et Classic Marathon Infinity seront disponibles prochainement. Bungie prépare un reboot de la saga qui sera axé multijoueur… Et qui ignorera malheureusement le Mac.

Lire les commentaires →

L'IA et les modèles de langage peuvent compresser du texte de façon très efficace

Pierre Dandumont |

Un développeur a effectué une petite expérience très intéressante récemment : il a employé un grand modèle de langage (LLM, ce qui est souvent appelé IA, même si c'est un abus de langage) pour compresser du texte. Et le résultat est assez impressionnant, malgré quelques limites.

Les IA peuvent compresser le texte où apparaît ce lapin.

L'exemple porte le nom de Drink Me, pour une bonne raison : Julian a effectué ses essais sur le premier chapitre du livre Les Aventures d'Alice au pays des merveilles. Il a employé llaman.cpp, un logiciel open source qui peut utiliser les modèles LLaMA de Meta.

La décompression en cours.

Le fonctionnement exact est expliqué dans son sujet, mais l'idée est de ne stocker que le nécessaire pour que le logiciel puisse générer le texte à partir des informations stockées dans le modèle. Sur le premier chapitre du livre, qui contient 11 994 caractères, la version compressée ne nécessite que 986 caractères, soit 8 % seulement de la valeur d'origine. C'est très nettement mieux que les programmes de compression classiques, mais avec évidemment quelques contraintes et limites.

Un problème de taille

Le premier défaut est évident : la puissance nécessaire est élevée, et sur plusieurs niveaux. Il a en effet fallu créer le modèle lui-même, et tant la compression que la décompression nécessitent beaucoup de mémoire vive et une bonne puissance de calcul. Le second défaut est un peu différent : la compression est beaucoup moins efficace si le modèle ne contient pas les données au départ (le post d'origine de Julian passe de 3 436 à 2 691 caractères). Ce défaut peut être présenté dans l'autre sens : si le texte à compresser a été employé pour créer le modèle — ce qui est a priori le cas de la version originale d'Alice's Adventures in Wonderland —, la compression est extrêmement efficace.

Cet autre post montre bien les gains : le modèle LLaMA-3-8B (8 milliards de paramètres) permet d'obtenir un fichier 58,4 x plus petit pour le même premier chapitre ou 131 x plus petit pour un texte très courant comme le contenu de la licence GPL v2. Mais pour du texte produit par l'auteur, les résultats sont plus faibles (4,4 x, 5,76 x ou 6,93 x). Dans tous les cas, la compression avec les outils classiques comme GZIP (certes plus rapide) est nettement moins efficace, avec des fichiers environ 2 x plus petits que les originaux.

Dans la pratique, il ne s'agit évidemment pour le moment que d'une sorte de démonstration technologique. Mais qui sait, peut-être que les sociétés qui développent les grands modèles de langage pourraient s'intéresser à cette solution dans le futur, pour ajouter une nouvelle corde à l'arc de « l'IA ».

Lire les commentaires →

Avec les modules LPCAMM2, Apple pourrait proposer de la RAM amovible sur les Mac

Pierre Dandumont |

Depuis quelques années, Apple emploie de la mémoire vive de type LPDDR, qui permet une consommation plus faible et des fréquences plus élevées, mais avec un défaut : elle n'est pas amovible et n'existe pas en barrettes. Mais ce point a été réglé : les premiers PC équipés d'un module LPCAMM2 arrivent enfin.

Un module LPCAMM2 Crucial.

Le LPCAMM2 (pour Low-Power Compression-Attached Memory Module) permet enfin l'intégration de la mémoire LPDDR sur un support amovible. Avec cette technologie, il est donc possible de garder les avantages de la LPDDR — fréquence, bande passante, consommation — tout en réglant son principal défaut.

Le LPCAMM2 — le 2 signifie qu'il s'agit de la version standardisée — débarque donc dans des PC portables. Les premiers modules sont disponibles à la vente et offrent 32 Go ou 64 Go de mémoire pour un prix intéressant : 195 et 368 €. Pour rappel, Apple facture 230 € pour le passage de 8 à 16 Go sur un MacBook Air. MacBook Air qui — par ailleurs — pourrait parfaitement intégrer le module. En effet, le LPCAMM2 travaille sur un bus 128 bits comme la mémoire intégrée dans les Mac équipés d'une puce M3 classique, et la fréquence de la mémoire est même plus élevée (7 500 MT/s, contre 6 400 MT/s chez Apple).

Le module est plus compact que les anciens emplacements SO-DIMM.

Bien évidemment, cette technologie n'est pas parfaite, pour deux raisons. Premièrement, elle se limite à un bus 128 bits, quand Apple est passé à 192, 256, 384 ou même 512 bits avec certaines des variantes de ses puces M3. Deuxièmement, même si le module est fin (4,5 mm), il est tout de même plus épais qu'une mémoire placée directement sur le système sur puce. De même, il mesure 34 x 78 mm, ce qui est certes plus compact que deux emplacements SO-DIMM classiques, mais demande tout de même des aménagements dans certains châssis.

Dans la pratique, même dans le monde PC, le LPCAMM2 est pour le moment présent uniquement dans un PC portable Lenovo, le ThinkPad P1 Gen 7. C'est un modèle de grande taille, équipée d'un écran de 16 pouces, et la mémoire soudée — qui nécessite moins de place — devrait donc rester la norme dans les PC portables de 13 pouces.

Lire les commentaires →

Partenariat entre Stack Overflow et OpenAI : des opposants sabotent leurs publications

Stéphane Moussie |

Stack Overflow et OpenAI ont annoncé la semaine dernière un partenariat qui prévoit que la mine d’informations du premier nourrisse les technologies d’IA génératives du second. Cet accord suscite la controverse au sein de la communauté de la plateforme et une fronde est en train de s’organiser.

Stack Overflow est une plateforme d’entraide incontournable pour les développeurs : ils peuvent y poser leurs questions techniques dans l’espoir que des confrères leur apportent des solutions ou des explications. Depuis son lancement en 2008, ce grand forum a accumulé une énorme base de connaissances, une base qui s’apprête donc à alimenter ChatGPT.

« Je déteste ça. Je vais juste supprimer/défigurer mes réponses une par une, a écrit un utilisateur sur Stack Exchange, un site appartenant au même groupe. Je me fiche que cela soit contraire à vos politiques ridicules, car comme le montre cette annonce, vos politiques peuvent changer à tout moment sans consultation préalable de vos parties prenantes. Vous ne vous souciez pas de vos utilisateurs, je ne me soucie pas de vous. »

Alors que certains utilisateurs ont tenté de saboter leurs publications, le personnel de Stack Overflow aurait banni une partie des frondeurs. Un utilisateur raconte qu’après avoir remplacé plusieurs de ses réponses bien notées sur la plateforme par un message de protestation, son compte a été suspendu pendant sept jours.

Stack Overflow est pris entre le marteau et l’enclume. Depuis l’émergence de ChatGPT et Copilot, deux nouvelles technologies capables d’épauler efficacement les développeurs, la plateforme a vu son trafic diminuer. Le contrat passé avec OpenAI doit sûrement lui rapporter de l’argent frais, mais dans le même temps il donne du carburant à sa principale menace.

L’accord stipule que ChatGPT attribuera à Stack Overflow les réponses issues de sa communauté, mais cette visibilité sera-t-elle suffisante pour compenser la baisse des visites ? Le partenariat prévoit également l’utilisation par Stack Overflow des modèles d’OpenAI pour développer de nouveaux produits.

Les IA crient famine dans leur recherche de nouvelles données à moissonner

Les IA crient famine dans leur recherche de nouvelles données à moissonner

Lire les commentaires →

Une grève historique en préparation dans un Apple Store américain

Stéphane Moussie |

Après avoir été les premiers à former un syndicat aux États-Unis, les employés de l’Apple Store de Towson Town Center sont les premiers à avoir voté l’organisation d’une grève. Les employés de cette boutique de Baltimore, sur la côte Est du pays, négocient depuis l’année dernière avec la direction des hausses de salaire ainsi que des améliorations dans l’organisation des plannings.

Apple Store de Towson Town Center. Image Apple.

« Le vote de ce jour est le premier pas pour démontrer notre solidarité et envoie un message clair à Apple », ont déclaré les membres du comité de négociation du syndicat samedi. « [Apple] collaborera avec le syndicat représentant notre équipe à Towson de manière respectueuse et de bonne foi », a réagi l’entreprise auprès de CNN.

La date de la grève n’a pas encore été communiquée. Apple fait tout pour tuer dans l’œuf les projets de syndicat dans ses autres boutiques américaines.

Lire les commentaires →

La rumeur d'une gomme dans Safari 18 inquiète des journaux britanniques

Florian Innocente |

Une association représentative de journaux britanniques a prévenu Apple qu'une fonction de suppression de la publicité dans le prochain Safari contribuerait à fragiliser leur situation économique.

La News Media Association (NMA) qui représente les intérêts de titres de presse nationaux et régionaux a transmis au responsable des affaires publiques d'Apple au Royaume-Uni une lettre dans laquelle elle s'inquiète de voir arriver une fonction de blocage de la publicité dans Safari 18.

Le nouveau menu d'actions tel qu'il pourrait être dans Safari 18, avec la fonction Gomme (Erase Web Content). Source : AppleInsider.

Cette possibilité n'est encore qu'une rumeur. Elle fait référence à une « gomme » avec laquelle on désignerait des éléments récurrents dans une page web que l'on ne veut plus voir s’afficher. Les zones bloquées d'une page seraient mémorisées pour les visites ultérieures (lire aussi Safari 18 saurait résumer, gommer et mieux chercher).

La missive, indique le Financial Times, souligne que l'activité de journalisme nécessite des revenus et « la publicité est une source de revenus clefs pour de nombreux éditeurs ». La NMA exprime également ses inquiétudes quant à la responsabilité éditoriale si des outils d’intelligence artificielle d'Apple étaient utilisés pour supprimer ou modifier de manière sélective le contenu d'articles.

L'association souhaite rencontrer Apple pour discuter de cette fonction et de ses implications potentielles.

Lire les commentaires →

Pages