Moto X

Motorola a dévoilé le premier téléphone intégralement pensé depuis leur rachat par Google. Et cela change pas mal de chose. La première bonne idée de ce smartphone est  la personnalisation : vous pouvez choisir la couleur de la façade, du dos de l’appareil, des boutons et même jusqu’à la couleur du disque entourant la lentille de l’appareil photo. C’est d’autant plus une bonne idée que le téléphone est un appareil très personnel, qui nous définit. Nous stockons les informations de nos proches, leurs photos, notre musique, nos applications, etc. J’ai du mal à trouver un autre objet aussi personnel que le smartphone. En plus, les gens adorent personnaliser leurs gadgets (et pas que leurs gadgets : il n’y a qu’à voir le succès des voitures personnalisables comme la Fiat 500, la DS3, la Mini, etc). Le problème avec la personnalisation est le mauvais goût des gens (faites une recherche sur tuning par exemple…). D’ailleurs, pour se prémunir contre ce fléau, Ferrari se réserve le droit de refuser certaines excentricités.

Cette personnalisation permet à Google de produire le Moto X aux USA. En effet, les possibilités avancées de personnalisation font qu’il est plus simple de produire localement, notamment pour des raisons de temps d’acheminement. La production locale est en vogue en ce moment (cf Mac Pro, Google Nexus Q, etc.).

Le problème du Moto X est le matériel employé qui est un peu en retard (l’écran n’est pas extraordinaire, il n’est qu’en 720p, le processeur n’est pas à la hauteur de la concurrence). Ce qui est gênant c’est le prix : malgré un matériel un peu en retard, le Moto X est aussi cher que la concurrence (HTC One, Galaxy S4).

Du coup, Motorola met plus le projecteur sur l’expérience, sur l’utilisation même du téléphone que sur ses spécifications. Un peu à la manière d’Apple : pas de communication sur la vitesse du processeur, le nombre de giga de RAM mais une communication sur les services et l’expérience. Et c’est pas plus mal : qu’importe la quantité de RAM pourvu que le système ne ralentisse pas.

Motorola est possédé par Google donc il est étonnant de remarquer que le Moto X n’a pas la dernière version d’Android (4.2.2 alors que la version 4.3 est disponible), ni la version propre Google Play (d’ailleurs, qu’il existe une version « propre » d’Android est un aveu d’échec de la part de Google). L’ajout de l’écoute de Google Now permanente est un réel atout. Cependant, après le scandale Prism, je ne suis pas sûr que j’aimerai avoir un téléphone qui m’écoute en permanence.

Je suis curieux de voir comment le marché va accueillir ce smartphone. Je pense que Google/Motorola va vers la bonne direction.

Fin de l’âge d’or pour Pixar

Monstres Academy (Monsters University en version originale, il va falloir m’expliquer comment sont traduits les titres des films parfois…) est sorti il y a quelque semaines et c’est un franc succès. Cependant, les deux précédents films Pixar ont déçu : Cars 2 et Rebelle. Cars 2 a été fraichement reçu par la critique et n’a pas beaucoup marché : il est 12ème sur les 13 films Pixar en revenus. C’est une vraie déception. Cependant, le but des films Cars n’est pas de gagner de l’argent en salle, mais plutôt en produits dérivés. Cars a rapporté plus de 10 milliards de dollars en produits dérivés alors que le film n’a rapporté « que » 250 millions (Cars est le deuxième film de l’histoire en revenu, juste derrière la série des Star Wars). Quand à Rebelle, il a reçu de meilleurs critiques mais tout le monde s’accorde pour dire que la magie de Pixar n’est plus présente. Rebelle est un bon film pour enfant mais inintéressant pour les parents. Il a marché moyennement pour un film Pixar (8ème sur 13).

Or, pour beaucoup, Pixar était le nouveau Disney. Ils peuvent faire des films pour enfant qui sont capables de plaire aux parents. Le 5 mai 2006 Disney achète Pixar pour 7,6 milliards de dollars. Certains parlent plutôt d’une fusion car cela met Steve Jobs comme plus grand actionnaire individuel de Disney et propulse John Lasseter numéro 2 de Disney. Les dirigeants de Pixar ont pris beaucoup d'importance dans l'organigramme de Disney. Une de ses premières décisions de Lasseter est d’annuler de nombreuses suites. Il dit alors qu’il faut éviter d’en faire. Cependant, certains craignent que la pression des cadres de Disney ne soit trop forte et poussent Pixar à faire des suites à la chaine pour rentabiliser. Malheureusement, il semble qu’il y ait du vrai.

Avant le rachat par Disney : 1 suite en 11 ans (Toy Story 2). Après le rachat par Disney : 3 suites sorties en 7 ans (Toy Story 3, Cars 2, Monstres Academy). 2 sont en préparation : Finding Dory (suite de Le Monde de Némo prévu pour novembre 2015) et Planes (Planes n’est pas vraiment une suite mais il se déroule dans le monde de Cars). Il n’est pas fait par Pixar : c’est un autre studio interne à Disney qui s’en occupe. De nombreuses rumeurs parlent d’un Toy Story 4 (Tom Hanks en a notamment parlé).

Il semble que la culture Pixar s'est peu à peu diluée dans celle de Disney.

Douglas Engelbart

Certaines personnes changent le monde par leur travail et leur découverte. Certaines sont connues comme Pasteur, d’autre moins comme Alexander Fleming qui a découvert la pénicilline. Steve Jobs est mort le 5 octobre 2011 et tous les media s’en sont fait l’écho.  Dennis Ritchie est mort une semaine plus tard dans l’indifférence générale. Pourtant, Steve Jobs lui doit presque tout. Ritchie a inventé le langage de programmation C sur lequel est basé de nombreux langages, dont celui utilisé pour les applications Mac et iOS : Objective-C. De même, Ritchie est l’inventeur du système d’exploitation Unix. Or, Mac OS X et iOS sont des système dérivés d’Unix. A ce sujet, d’autres personnes très importantes pour l’industrie informatique sont mortes en 2011. C’est un peu la même histoire pour Douglas Engelbart. Il est rare de pouvoir dire que tout le monde, tous les jours, utilise l’invention d’une personne. C’est pourtant le cas pour Engelbart : il a inventé la souris (lui préférait le terme d’indicateur de position X-Y). Il est aussi à l’origine de la création de l’interface graphique, il a travaillé sur le réseau ARPANET sur lequel sera construit Internet. Toutes ses idées furent présentées lors d’une présentation historique en 1968 appelé « Mère de toutes les démos ». Il y présente notamment l’utilisation de la souris et le concept d’hypertexte.

Malheureusement, il était inconnu du grand public. Aucun média généraliste ne fera un reportage de quelque minutes sur sa vie et son oeuvre.

Or nous avons perdu un géant qui aura bouleversé les technologies de l’information. C’est grâce à lui que vous pouvez aujourd'hui surfer sur Internet en naviguant avec votre souris de lien hypertexte en lien hypertexte grâce à une interface graphique.

Retour sur la WWDC 2013

J’ai le sentiment que c’est la première vraie keynote post-Steve Jobs. Même si une poignée de keynotes ont eu lieu depuis sa mort, celle-ci semble vraiment différente. L’ambiance déjà change : elle est beaucoup moins intense, un peu moins sérieuse. C’est plus décontracté : il y a plus de petites remarques qui font sourire. On sent une volonté d’essayer de redéfinir Apple. Jusqu’à présent, Apple était Steve Jobs. Depuis sa disparition, Tim Cook et son équipe ont réfléchi sur ce qui fait l’entreprise. Et je trouve qu’ils ont trouvé la bonne recette : Apple c’est des milliers de non pour un seul oui. C’est l’intransigeance, c’est faire des produits sans concession. Tim Cook a mis en avant le travail d’équipe en partageant régulièrement la scène. Ils n’ont pas hésité à remettre en cause ce qui avait été fait sous la direction de Jobs et Forstall. A plusieurs reprises, Craig Federighi s’est moqué directement des anciens gimmick (le cuir sur iCal, le tapis vert dans Game Center, le lin de OS X). Phil Schiller n’a pas hésité non plus à envoyer un uppercut à Wozniak présent dans la salle. En effet au cours d’une interview, Woz avait indiqué qu’Apple n’innovait plus. Schiller a alors dit lors de la présentation du Mac Pro « can’t innovate anymore my ass! ». Qu’on pourrait traduire pas : « plus d’innovation mon cul ! ». Le réalisateur devait être prévenu car il a tout de suite fait un gros plan sur le visage de Woz qui était dans le public. J’ai trouvé ce petit mot de Schiller pour le moins inélégant.

Le thème de cette keynote était vraiment le changement : c’est un nouvel élan pour Apple. Il y aura un avant et un après WWDC 2013. Pour montrer ce changement, voyons ce que propose iOS 7 et OS X Mavericks.

iOS 7

Revisite complète d’iOS : sans contexte le plus gros changement depuis l’introduction du premier iPhone. Toutes les versions d’iOS héritent  de la première version. Or le premier iOS avait beaucoup de contraintes, notamment il devait tourner sur le premier iPhone. Or celui-ci avait un matériel très limité :
- Peu de RAM (128 Mo contre 1Go pour l’iPhone 5)
- Un CPU lent (monocore cadencé à 412MHz contre dual-core à 1,3GHz pour l’iPhone 5)
- Résolution d’écran ridicule (480 x 320 soit 163 ppi contre 1136 x 640 soit 326 ppi)
- Pas de GPS

Ajoutez à cela d’autres contraintes : pas d’installation d’application et une connexion cellulaire lente (Edge ou 2G).

Le monde du mobile n’est absolument plus le même, il faut donc un système qui puisse s’adapter à ce niveau monde.

Ce changement d’iOS me rappelle un peu quand l’interface Aqua de OS X a été révélé. De même que pour Aqua, iOS 7 est une base sur laquelle Apple va construire. Comme pour Aqua, le changement est radical et va se raffiner avec le temps. Il est plus facile d'enlever que d'ajouter en design. Aqua avait beaucoup choqué à l’époque avec ses boutons bleus totalement glossy, notamment les designers. On va vu que, par la suite, l’interface d’OS X s’est un peu adoucis. Ce sera certainement le cas pour les prochaines versions d’iOS qui seront un peu plus sobres.

Evidemment, ce qui a été montré de iOS est critiquable et est abondamment critiqué. Des critiques le plus souvent négatives. Cependant, un bon nombre de critique viennent de personnes qui n’ont jamais utilisé le système. Ils se basent seulement sur des vidéos, ce qui est insuffisant pour se faire une idée d’un système. Les critiques se concentrent sur le bureau (home screen) mais le reste est très positif : très clair et aéré.

Cependant, quand on critique iOS 7 il faut garder en tête plusieurs choses :
- Il a été développé en 8 mois (depuis le départ de Forstall) : ce qui est un délais extrêmement court.
- Jon Ive qui s’occupe du design n’est pas un designer d’interface mais un designer hardware. Il faut donc lui laisser du temps.
- Deux équipes ont travaillé ensemble sur le design : une pour le design de l’OS et des applications, l’autre pour les icônes.
- Ce que l’on a vu d’iOS 7 est une beta pour développeur. Normalement, rien à part ce qu’a montré Craig Federighi à la présentation ne devrait être accessible au public. Il est normal que le système bugge, plante et ne soit pas totalement finalisé. D’ailleurs, Apple commence déjà à changer certaines icônes.

En parlant des icônes, voici un article intéressant qui explique pourquoi leur design est critiquable.

Pour ma part, je trouve le nouveau design réussi. L’utilisation des polices de caractères prennent parti de l’écran Retina à merveille. Je le trouve moderne et c’est un changement qui arrive à point. Je commençais à trouver beaucoup de défauts à l’interface historique d’iOS. Je ne suis pas conquis par les gimmicks comme le moteur physique et les effets de flou. Je pense que tout cela sera gommé petit à petit dans le futur.

iOS 7 est un nouveau départ sur lequel va se baser le futur d’iOS. Il serait idiot d’avoir un jugement définitif sur quelque vidéos d’une beta.

OS X Mavericks

Enfin Apple semble reprendre au sérieux OS X. Cela fait beaucoup trop d’années que ce système est délaissé au profit de iOS. Lion et Mountain Lion n’étaient qu’une « iOSification » de Mac OS X. Ils ont ajouté des éléments du système portable comme Notification, iMessage, iCloud et LaunchPad sans vraiment faire le système. Sérieusement, qui utilise LaunchPad ? OS X stagnait terriblement. A tel point qu’un bon nombre d’utilisateur n’avait pas mis à jour le système et était très content avec Snow Leopard.

Cette fois-ci, Apple traite OS X avec tout le respect qu’on lui doit. Enfin, la gestion de l’affichage sur plusieurs écrans va être correctement effectué.  C’était un vrai problème pour tous les utilisateurs de multi-écran, une vraie plaie ! Dans le mouvement d’« iOSification », iBook et Maps (Plan en français) arrivent sur OS X. Cependant c’est un peu tard : les applications concurrentes Kindle sont disponibles depuis des lustres sur toutes les plateformes. Même remarque pour Maps, d’ailleurs si vous utilisez iCloud pour retrouver votre téléphone, jusqu’à maintenant cela utilise encore Google Map… Keychain, système de gestion de mot de passe de OS X, sera disponible dans iCloud. Quel retard ! De nombreux utilisateurs travaillent avec 1Password stocké sur Dropbox depuis des années… Dans la même veine, les onglets vont apparaître dans le Finder. Dommage que j’utilise Path Finder depuis 5 ans qui a non seulement des onglets, mais qui est bien plus puissant… De même pour les tags : j’utilise depuis deux ans un logiciel qui permet tout ce qui a été montré.

Bien que tout cela arrive bien trop tard, cela fait plaisir de voir qu’Apple pense aux power-user et essaie de rattraper son retard. La petite preview du nouveau Mac Pro va dans le même sens.

Il semble que tout ce qui devait être réparé dans OS X le sera avec Mavericks. J’ai seulement peur que cela soit un peu trop tard. Apple semble vouloir donner un nouvel élan à OS X, c’est sans doute pour cela qu’ils abandonnent le nom d’un félin pour le système.

Apple recommence à innover et c’est une excellente nouvelle pour l’industrie. J’ai hâte de voir ce qu’ils vont nous proposer dans le futur et les réponses des concurrents.

Adieu Google Reader

Google Reader ferme le 1er juillet 2013. L’annonce de cette fermeture a surpris tout le monde. Elle a été faite en catimini le 13 mars 2013 : le jour de l’annonce du nouveau pape, histoire qu’elle soit noyée sous le flot d’information. Google Reader était le lecteur de flux RSS le plus populaire. Non seulement populaire, mais il était aussi utilisé par d’autres applications comme nœud centrale (Reeder par exemple). Personnellement, je l’utilisais tous les jours. Sur mon ordinateur via mon navigateur, sur mon téléphone via l’application Reeder et sur ma tablette via l’application Google Reader. Bref, l’annonce de sa fermeture a été une mauvaise surprise car il faisait parti de mon workflow journalier. Je n’imagine même pas le choc pour les dizaines de développeurs s’appuyant dessus. Pour quelle raison Google tuerait un produit aussi populaire ? Au moment de l’annonce de sa fermeture, Reader était plus utilisé que Google Plus.

Plusieurs mois avant l’annonce de la fermeture de Reader, Brent Simmons avait prévenu : les récents changements n’auguraient rien de bon. Il soulevait des points très intéressants :
- L’API de Reader n’est ni documenté, ni supporté et n’est pas officiel (contrairement à l’API Google Maps par exemple). C’est à dire que de nombreux développeurs s’appuient sur un outil pas fiable.
- Les possibilités sociales de partage de Reader ont été remplacées par une intégration de Google+. Le pas suivant étant de remplacer Reader par Google+. Il prédisait une futur de Reader à la Google Wave.

Google n’a jamais vraiment cru en Reader : même son créateur n’y croyait plus depuis longtemps, notamment depuis l’introduction du +1 amenant à partager sur Google+.

Le but : tout passer par Google+. C’est la démonstration d’un changement stratégique majeur chez Google. Auparavant, leur philosophie était de faire le meilleur produit possible et tout suivrait automatiquement. Cependant la concurrence a montré un point faible dans cette stratégie : les outils sont tellement bons qu’ils sont utilisés souvent mais pas longtemps. Prenons l’exemple du moteur de recherche : il est tellement performant qu’une fois la recherche effectuée on trouve le résultat rapidement et on passe à autre chose. Combien de temps passez-vous sur Google par jour ? Quelque minutes ? Comparez cela avec le temps passé sur Facebook… La nouvelle stratégie est simple : il faut capter l’utilisateur le plus longtemps possible (plus de publicités affichées plus longtemps = plus d’argent). D’où la mise en avant massive de Google+. Pour remplacer Reader, Google propose d’autres outils comme Google Currents. Il préfère une solution qui, en suivant votre comportement, vous génère une liste d’articles plutôt qu’une solution mettant l’utilisateur comme son propre rédacteur en chef. Ainsi, avec la nouvelle solution, vous ne contrôlez pas les sources proposées par Google. C’est une vision très orwellienne de l’information.

Cette fermeture arrive après des mois de dénigrement de la technologie RSS. Beaucoup disent que cette technologie est datée. Certains parlent de remplacer le RSS par Twitter ou Facebook. Cependant, je pense que c’est une vision erronée de l’utilisation du RSS. Le RSS est parfait pour suivre un grand nombre de sources mises à jour irrégulièrement (pensez aux blogs, pas aux sites d’informations). Une chose penche en faveur du RSS : c’est une technologie totalement ouverte possédée par personne. En choisissant le RSS, vous êtes totalement libre. La meilleur preuve est l’arrêt de Google Reader : vous pouvez choisir un bon nombre d’alternative (feedlynewsblur, netnewswire, et bientôt digg pour n’en citer que quelques uns). Par contre, si vous gérez votre flux d’information via Twitter ou Facebook vous êtes complètement lié à leur volonté. Exemple : Twitter qui veut limiter au maximum les applications tierces, limitant ainsi le choix et la liberté des utilisateurs…

Je suis assez attristé par cet état de fait. Pour moi, RSS est une excellente technologie et Google Reader était un bon agrégateur de flux. Cette fermeture aura des conséquences non anticipées par Google. Cela va ouvrir les yeux des utilisateurs des produits Google (moi le premier). Il y aura une vraie perte de confiance. Je ne peux pas m’arrêter de me demander en utilisant un produit Google s’ils ne vont pas le fermer (Picasa ? Drive ? Google+ ? Maps ? Google News ? Google Calendar ? ).

Cette fermeture me met le doute sur Google alors que je n’en avais pas. J’ai changé de gestionnaire de flux RSS, mais je cherche aussi à être moins dépendant de leurs produits car je n’ai plus confiance en eux. Et ce ne sont pas les révélations concernant PRISM qui vont me rassurer.

La mort de Google Reader est en fin de compte une bonne nouvelle : la compétition va prendre le relais et amener de nouvelles solutions en innovant. De plus, des utilisateurs sont d’ailleurs prêt à payer si cela assure la pérennité du produit. J’espère que cela amènera une réflexion plus large sur les produits gratuits qui sont rémunérés par la publicité et donc la collecte d’informations.

PRISM ou Big Brother revisité

Le Washington Post révèle que la NSA et le FBI ont espionné des millions personnes. Cela en cherchant dans les serveurs de sociétés tels que Microsoft, Google, Facebook, Apple (et d’autres) légalement depuis 2007. Ils ont espionné mails, photos, documents, fichiers audio, vidéos, etc. tout cela à l’insu de millions d’utilisateurs à l’étranger. Ce programme secret s’appelle PRISM. La NSA et le FBI choisissent une cible et à partir de là collectent des données, un ensemble de données effrayant. En gros, ils prennent toutes les données en ligne d’un utilisateur. Par exemple pour les utilisateurs de Google, PRISM concerne : - Les mails de Gmail - Les chat audio, video et écrit de Google Chat et Google Talk - Les fichiers de Google Drive - Les bibliothèques photos (même privées) de Picasa - Les recherches du moteur de recherche en temps réel

Les entreprises sont dans une situation impossible : si elles refusent de coopérer (c’est à dire de fournir les données d’un utilisateur au FBI/NSA) elles peuvent être poursuivies pénalement. Cependant si elles acceptent, elles peuvent faire payer le gouvernement pour leur service. Enfin, elles n’ont pas le droit de dire qu’elles ont collaboré avec le gouvernement. D’après les documents du Washington Post, toutes les sociétés n’ont pas coopéré en même temps : - Microsoft : septembre 2007 - Yahoo : mars 2008 - Google : janvier 2009 - Facebook : juin 2009 - Skype : février 2011 - Apple : octobre 2012

Donc en gros tout ce qui représente le web aujourd’hui : de l’email, au moteur de recherche en passant par la video et les moyens de communications.

Evidemment, tout le monde dément : Google réfute totalement avoir fourni des données au gouvernement, Apple, Facebook, Microsoft, AOL, Dropbox et Yahoo réfutent aussi. Cependant, Yahoo n'est pas très convaincant dans son démenti. Ce qui est surprenant est l’absence de Twitter et la résistance d’Apple (pourquoi ont-ils coopéré 5 ans après Microsoft ?). Si Twitter a résisté, pourquoi les autres ont-ils plié ?

Dans un premier temps, ils réfutent tous de la même manière :
- Nous ne connaissons pas PRISM jusqu’à l’article du Washington Post (le nom peut-être, mais la manière d’agir ?)
- Nous ne donnons pas d’accès direct (tous utilisent la même phrase pratiquement au mot près : « We do not provide direct access », mais aucun nie l’accès). Or, une diapositive des services secrets indiquent le contraire. En ce qui concerne Google, l'accès se fait via un serveur FTP. Google y dépose les données demandées par la NSA.
- Nous avons reçu des demandes du gouvernement pour leur donner des données. Chaque demande est évaluée par notre équipe juridique.

Cependant, malgré les dénégations, certains parlent d’un accès direct aux serveurs (notamment pour Google et Facebook).

Quelque jours plus tard, Facebook et Microsoft jouent la transparence et indiquent toutes les demandes faites par la NSA.

Comment quelque chose d’aussi incroyable a pu être mis en place ? Dans une Amérique post 11 septembre, le mot magique est terrorisme. PRISM agit sous la bannière de l’anti-terrorisme. Le but : espionner grâce aux communications à l’étranger. Seuls les personnes en dehors des US sont la cible de PRISM. Il est à noter que les citoyens américains ne peuvent pas en être la cible (même si certains peuvent être interceptés « par erreur »). Ce qui expliquerait pourquoi cette organisation bafoue autant les libertés individuelles : ils peuvent se permettre de bafouer la liberté des étrangers sans sourciller. Donc, nous avons une organisation d’espionnage américaine qui est une atteinte directe aux libertés des citoyens du monde entier, dont évidemment les européens. D’ailleurs, la commission européenne prend PRISM très au sérieux. Ceci est en contraction complète avec les droits de l’homme signés par les USA à l’ONU, notamment l’article 12 qui concerne la vie privée.

Nul ne sera l'objet d'immixtions arbitraires dans sa vie privée, sa famille, son domicile ou sa correspondance, ni d'atteintes à son honneur et à sa réputation. Toute personne a droit à la protection de la loi contre de telles immixtions ou de telles atteintes.

On pourrait croire que l’administration Obama se mette à s’excuser platement et à faire des enquêtes pour comprendre ce qui s’est passé. Ce n’est absolument pas le cas. La réponse est affligeante. Pour résumer : tout est légal, circulez il n’y a rien à voir :
- Chaque membre du Congrès a été mis au courant
- PRISM a été autorisé par des partisans républicains et démocrates à plusieurs reprises depuis 2006
- La maison blanche assure que PRISM est le meilleur moyen pour combattre le terrorisme
- Vous ne pouvez pas avoir 100% de sécurité avec 100% de vie privée Ici, je ne peux m’empêcher de citer Benjamin Franklin, un des pères fondateurs des USA : « Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne mérite ni l'une ni l'autre, et finit par perdre les deux.»

Le patron des services secrets répond aux interrogations de manière laconique en reprenant les mêmes arguments :
- Tout ce qui est rapporté par le Washington Post et le Guardian est inexact
- Tout ce que l’on fait est légal
- Nous ne pouvons pas entrer dans les détails car c’est top secret

En plus de PRISM qui s’occupe de la récupération de données, il existe Boundless Informant qui s’occupe de l’analyse de données. Surprise : les citoyens américains sont visés. Il y a donc fort à parier qu’un bon nombre de personnes ment dans cette affaire.

Dans le même temps, on apprend que Verizon (équivalent de SFR ou Orange aux US) a partagé toutes les données de ses abonnés au gouvernement américain. Qui appelle qui, pendant combien de temps et où si trouve la personne au moment de l’appel. Par contre, le contenu des conversations n’est pas concerné. Au contraire de PRISM, ici cela concerne uniquement les personnes sur le territoire américain.

Je me permets d’ajouter que Microsoft axe sa communication sur le respect de la vie privée, s’attaquant directement à Google avec sa campagne Scroogled. De plus, la prochaine console appelé Xbox One doit avoir Kinect branché en permanence. Je rappelle que Kinect qui est un micro et une caméra (classique et infrarouge) avec reconnaissance vocale, faciale et corporelle, dans votre salon, connectés en permanence à Internet. Je vous conseille de lire cet article de Ars Technica. Des personnes se connectent aux ordinateurs de particulier, pirate leurs ordinateur pour les espionner grâce aux webcams. Il se servent des informations recueillis pour faire du chantage. Multiplier cela par un million et vous avez notre éventuel avenir. Cela ressemble de plus en plus au futur de 1984 et du Meilleur des Mondes. Petit à petit, c’est la fin de la vie privée.

J’espère vraiment que cet affaire sera le début d’une prise de conscience globale sur les problèmes de vie privée. Des solutions existent :
- Mise en place du cryptage asymétrique sur les serveurs
- Utilisation de VPN pour toute connexion à Internet
- Cryptage complet de la communication sur mobile, comme par exemple avec Silent Circle.

Edward Snowden : retenez ce nom. C'est grâce à son action héroïque que nous avons ces informations. Le fait qu'il se cache à Honk Kong pour se protéger des USA, son pays, en dit long sur le traitement des libertés individuelles aux USA.

Quel rythme d'annonce pour Apple ?

Comme beaucoup d’amateurs des produits d’Apple, j’essaie au maximum d’anticiper la sortie des produits. Cela pour une raison très simple : je serais bien embêté d’acheter un MacBook Pro une fortune pour le voir mis à jour, au même prix, quelques semaines plus tard.

Jusqu’à présent, la sortie des produits était assez prévisible. Historiquement, les nouveaux iPod sortent en septembre/octobre.
- iPod photo : octobre 2004
- iPod 5 : octobre 2005
- iPod 6 : octobre 2007
- iPod Nano : tous les septembre depuis 2005
- iPod Touch : tous les septembre depuis 2007

Les iPad (non-Mini) sortent en mars/avril.
- iPad : avril 2010
- iPad 2 : mars 2011
- iPad 3 mars 2012

Les iPhone sortent en juin/juillet.
- iPhone : juin 2007
- iPhone 3G : juillet 2008
- iPhone 3GS : juin 2009
- iPhone 4 : juin 2010

Nous avions donc 3 événements par an :
- Mars/avril : révélation du nouvel iPad
- Juin/juillet : révélation du nouvel iOS et du nouvel iPhone
- Septembre/octobre : nouveaux iPod

Cependant, l’année 2012 a amené de forts changements. L’iPad 4 est sorti en novembre ainsi que l’iPad mini. En novembre 2011 l’iPhone 4S est annoncé, en novembre 2012 c’est au tour de l’iPhone 5. Nous sommes en juin et aucun événement d’Apple ne s’est déroulé. Le WWDC verra la première keynote de l’année alors que précédemment cela aurait du être la deuxième (la première aurait du être la révélation du nouvel iPad).

En 2009, Apple annonce qu’il ne participera plus au Macworld qui se déroulait début janvier. C’était le théâtre de plusieurs annonces :
- 2005 : Mac Mini
- 2007 : iPhone
- 2008 : MacBook Air

La raison de l’abandon du Macworld est relativement simple : Apple voulait être maître de ses annonces et donc ne pas être obligé d’annoncer quelque chose tous les janvier. Contrairement à la WWDC qui est organisée par Apple, Macworld est indépendant de l’entreprise.

La question qui se pose, après tous ces changements, est : quel sera le nouveau rythme des annonces ?

Il semblerait logique d’annoncer dans le même événement toutes les sorties matériels concernant iOS. On peut donc imaginer une annonce concernant le nouvel iPhone, iPod Touch, iPad et iPad Mini au même moment. Ce fut le cas pour l’iPhone 5, iPad 4 et l’iPad Mini en novembre 2012. La fin d’année est propice pour une telle keynote : juste avant Thanksgiving (qui le 4ème jeudi de novembre) qui lance les achats de Noël.

Un autre événement, précédent celui de fin d’année, pourrait avoir lieu lui à la WWDC pour annoncer les nouvelles fonctionnalités logicielles. La WWDC a lieu généralement en juin.

Le problème est simple : Apple peut-il se permettre un silence radio entre novembre et juin ? Cela a été le cas entre novembre 2012 et juin 2013. Alors que la concurrence multiplie les annonces avec Samsung, Google, HTC ou encore Nokia. Est-ce sage de laisser à ses concurrents un boulevard médiatique de plus de 6 mois ?

Il est donc probable qu'Apple tienne une conférence entre novembre et juin. Pour quelle annonce ? AppleTV (avec applications ?) ou un nouveau produit ?

Qu’attendre de la keynote du WWDC 2013 ?

Comme à chaque annonce de keynote d’Apple, il y a beaucoup de rumeurs d’annonce. Certaines sont plus probables que d’autres.

Je vais me prêter au jeu des prédictions et je vais essayer de séparer le bon grain de l’ivraie.

Ce qu’il n’y aura pas au WWDC 2013 :

- Pas d’iPhone : de nombreux produits ont été annoncés aux WWDC précédents (les iPhone 3G, 3GS et 4 notamment) cependant je ne pense pas que ce soit le cas cette année. La première des raisons est qu’aucune image de prototype n’a filtré sur le net et ce à moins de 10 jours de la keynote. La deuxième raison est que je pense que les iPhones vont à présent être annoncé plutôt vers septembre/octobre.

- Pas d’iPad : la même absence d’image de prototype produit les mêmes effets. De plus, l’iPad 4 et l’iPad Mini ont été dévoilé en novembre 2012. Il semble que ce soit un peu tôt pour le dévoilement d’un nouvel iPad.

Il ne faut que pas oublier que le WWDC est avant tout un rassemblement de développeurs. Le but pour Apple est de présenter les nouvelles API et systèmes pour les former au mieux. Ainsi, les annonces de nouveaux systèmes iOS et Mac OS X sont à prévoir. De plus, Phil Schiller l’a déjà annoncé.

Ce qu’il y aura :

- iOS 7. C’est une nouvelle version très importante car c’est la première version qui n’a pas été développé sous la houlette de Scott Forstall. Jon Ive a pris le relais et tout le monde va scruter son influence sur le design du nouvel iOS. On peut s’attendre à une description détaillée du système avec une date de sortie. La question qui se pose est le support pour les iPhones précédents (par exemple, Siri qui est apparu avec iOS 5 n'est pas disponible pour l'iPhone 4).

- Mac OS X 10.9 : plusieurs sites ont remarqué que des ordinateurs avec le système 10.9 surfaient sur leur site, et ce depuis début avril (on retrouve le même genre de statistique pour iOS 7). Des rumeurs parlent d’un certain retard à cause de iOS 7 (des ingénieurs travaillant sur Mac OS X auraient été appelés en renfort pour travailler sur iOS 7). Il y a eu déjà un précédent : Leopard a été retardé pour pouvoir finir le premier iPhone et son système d’exploitation.

- Nouveau MacBook Air : il n’a pas été mis à jour depuis un an, tout comme le MacBook Pro. On peut s'attendre sans doute au même design avec de nouvelles puces Intel qui auront l’avantage d’avoir une bonne carte graphique intégrée (et dont la date de sortie coïncide : juin 2013…). Il me semble un peu tôt pour le rêve de tout adorateur du MacBook Air : un MacBook Air Retina Display.

- Nouveau MacBook Pro : comme pour le MacBook Air, les nouveaux MacBook Pro mettront à jour leur CPU et GPU. On peut éventuellement tabler sur un nouveau design tiré du Retina Display (plus fin et sans lecteur DVD ?).

- Nouveau Mac Pro : la nouvelle que tout power user macophile attend depuis des lustres. Le Mac Pro a été depuis trop longtemps négligé. Il n’est même plus vendu en Europe ! Et aux US où il est encore vendu, il ne possède pas de port Thunderbolt (pourtant présent sur les autres machines depuis début 2011). La seule chose qui semble acquise est qu’il sera produit aux US dans une nouvelle usine dernier cri permettant beaucoup de personnalisation au niveau matériel.